miércoles, 29 de diciembre de 2010

ESPECIAL REFORMA 2: SIMCE, SIMCE Y MÁS SIMCE

Una de las medidas que se ha reiterado como parte de la 'revolución' educativa del actual Ministerio se relaciona con el SIMCE, específicamente con el aumento de su frecuencia y con su ampliación hacia otras áreas del currículum escolar. Cuando se busca el sustento para tal medida dentro de la escasa información proporcionada por el gobierno, lo que se encuentra es un razonamiento más bien básico según el cual los estudiantes se esforzarán más porque estarán expuestos a más evaluaciones estandarizadas. Nada más se encuentra, pues el documento del proyecto de ley "Sobre la calidad y Equidad de la Educación" ingresado el pasado 30 de noviembre para su tramitación en el Congreso es más bien un compilado de artículos que regulan las condiciones administrativas y las transformaciones laborales en el campo educativo... Sobre el SIMCE, nada.

Entre una entrevista y otra, entre un programa y otro, parecen escucharse nuevos argumentos, como por ejemplo, que en los países desarrollados con buenos resultados se realizan múltiples evaluaciones estandarizadas. Y mientras el Ministro nos invita a seguir la ruta de Finlandia, olvida mencionar que en dicho país no se apura a los niños para que aprendan a leer, pudiendo hacerlo hasta los 8 años sin ser condenados por nadie, los estudiantes no son calificados con notas hasta bien entrada la enseñanza básica (para no desmotivarlos y lograr que quieran aprender) y las evaluaciones estandarizadas que enfrentan a lo largo de su vida son más bien escasas (Robert, 2008). Pero bueno, esos son fundamentos que vienen del campo educativo y no del de la ingeniería; se entiende la omisión.

Otro silencio importante en este punto se relaciona con la evidencia existente acerca de las consecuencias negativas que las evaluaciones estandarizadas de alto impacto (es decir, de las que dependen cosas como despidos, cantidad de matrícula y cierre de establecimientos) tienen sobre la calidad de la enseñanza y el aprendizaje. Múltiples autores reconocen las evaluaciones estandarizadas de tipo sumativo como un obstáculo para la implementación de prácticas de enseñanza centradas en el aprendizaje (Hodgson and Pyle, 2010; Condie et al., 2005; Dori, 2003; Hayward and Spencer, 2010; Kirton et al., 2007; Gipps et al., 2005; Kellaghan, 2004; Gipps, 2002; Black et al., 2004; Shepard, 1992). El efecto negativo de estas evaluaciones en el currículum y la enseñanza ha sido reconocido en Estados Unidos y el Reino Unido, contexto este último en que, de hecho, se ha optado por disminuir los tests estandarizados nacionales y por incorporar mayormente la evaluación que realizan los profesores (¡uf!, qué cosa más rara, qué herejía...) El efecto antes mencionado suele resumirse a través de la expresión 'enseñanza para la prueba' (teaching to the test) y contempla los siguientes aspectos (Shepard, 1992):
  • Reducción del currículum: cuando se implementan pruebas de alto impacto, los establecimientos tienden a priorizar el currículum que será evaluado en las pruebas y a dejar de lado aquello que no aparece en el test. Habría que preguntarse, por ejemplo, qué pasa con el SIMCE 2010 que solamente evalúa lectura y deja de lado aspectos de escritura y comunicación oral, precisamente aquellos que tienen que ver con el desarrollo de una voz personal en los estudiantes.
  • Distorsión de la enseñanza: debido a la presión que generan las evaluaciones sobre los docentes, ellos tienden a modificar su enseñanza en función de la lógica de los tests, aun cuando esta distorsión signifique para ellos ir en contra de sus principios pedagógicos. Tratando con profesores he tenido la oportunidad de escuchar múltiples testimonios acerca de las presiones que experimentan en los establecimientos en relación con la necesidad de 'subir el puntaje', que termina siendo en norte de la educación, olvidándose así del aprendizaje. Por ejemplo, hay escuelas en las que en vísperas del SIMCE se modifica el plan de estudios y solamente se enseña Lenguaje y Educación Matemática durante toda la jornada... en realidad no se enseña, sino más bien se entrena, sobre la base de ensayos de prueba.
  • Deterioro de los aprendizajes: al orientar la enseñanza hacia prácticas similares a las pruebas, los estudiantes tienden a automatizar una respuesta en lugar de adquirir un aprendizaje aplicable a diversas situaciones de su vida. En otras palabras, los estudiantes aprenden a contestar bien un tipo de pregunta y no necesariamente una habilidad central en un área del conocimiento. Este aspecto coincide con una de las conclusiones del Grupo para la reforma de Evaluación (ARG) en el Reino Unido, tras revisar 183 estudios acerca de la relación entre la realización de tests, la motivación y el aprendizaje. Este tipo de práctica solamente contribuye a enfatizar el rendimiento y va en detrimento del desarrollo de habilidades cognitivas más complejas (Black et al., 2004).
  • Discriminación a los estudiantes 'difíciles': aquellos estudiantes que por diversas razones pudieran tener un rendimiento más bajo en las pruebas tienden a ser excluidos del sistema. Si bien en Chile esto se ve frenado por la presión económica de la matrícula, es un secreto a voces que en algunos contextos se esconde a los estudiantes o se les pide que no asistan el día del SIMCE, debido a lo que ello puede significar en el puntaje del establecimiento. No quisiera imaginarme qué podría pasar con este aspecto en el flamante SIMCE de Educación Física, pienso en niños muy débiles o con algún grado de obesidad siendo escondidos el día de la prueba o simplemente rechazados en las escuelas, lo que se acercaría peligrosamente a una política de fascismo educacional.
  • Deterioro del conocimiento y del estatus profesional de los docentes: en una cultura educativa altamente centrada en rendir cuentas a través de puntajes, los profesores se ven presionados a reducir sus posibilidades de enseñanza y a renunciar cada vez más a aquello que, desde su juicio profesional, les parece correcto y adecuado.
Cuando se busca qué se ha dicho acerca del fenómeno de enseñanza para la prueba en nuestro contexto, se indica que no hay investigación al respecto (Meckes y Carrasco, 2009: 244) y con ello se salva el obstáculo de la revisión crítica del SIMCE. No obstante el informe de la Comisión SIMCE 2003, que considera la perspectiva de los diversos actores del sistema educativo, menciona una serie de efectos 'no deseados' de la prueba, relacionados con la reducción del currículum, la limitación de las posibilidades de evaluación escolar, el fomento a la selección y discriminación de alumnos, junto con otras prácticas que distorsionan tanto los resultados de la medición como los procesos de enseñanza y aprendizaje dentro de las aulas (Comisión SIMCE, 2003: 43).   

¿Para qué más SIMCE, entonces? ¿Para qué un SIMCE de inglés en un sistema en que las segunda lengua comienza, extrañamente, a enseñarse recién en 5º básico? ¿Para qué un SIMCE de Educación Física? Hasta se ha escuchado por ahí un SIMCE en 2º básico, lo que podría implicar serias presiones para estudiantes que se encuentran en un proceso que requiere respeto por los diversos ritmos de aprendizaje. ¿Será que se quiere desmotivar a estudiantes y profesores desde el inicio? ¿Será que queremos volver a una idea del aprendizaje como algo que funcione de la misma manera que en una cadena de producción industrial con altos niveles de control? No hay que olvidar quién instaló el SIMCE en Chile y recordar que este tipo de evaluaciones son coherentes con ideologías de mercado que promueven la competencia entre escuelas y una visión de los padres como clientes del sistema (Gipps, 2002). En síntesis, el SIMCE puede ser útil para informar decisiones y mejorar los aprendizajes solamente en la medida en que la presión que genera la publicación de los resultados, tanto en la prensa como a nivel institucional, disminuya. De lo contrario, el SIMCE no logra ser más que un deforme cuadro que retrata las distorsiones y perversiones de nuestro sistema educativo.

Referencias 
        
Black, Paul with the King’s College London Assessment for Learning Group (Christine Harrison, Clare Lee, Bethan Marshall, Dylan Wiliam) (2004). The Nature and Value of Formative Assessment for Learning (Draft). King's College London.

Comisión para el Desarrollo y Uso del Sistema de Medición de la Calidad de la Educación (2003). Evaluación de aprendizajes para una educación de calidad. Santiago de Chile: MINEDUC.

Condie, Rae; Livingston, Kay; Seagraves, Liz (2005). Evaluation of the Assessment is for Learning Programme: final report. Glasgow: Quality in Education Centre, University of Strathclyde.

Dori, Y. J. (2003). From nationwide standardized testing to school-based alternative embedded assessment in Israel: Students’ performance in the Matriculation 2000 project. Journal of Research in Science Teaching, 40 (1), 34–52.

Gipps, Caroline (2002). Beyond testing (towards a theory of educational assessment), 5th edition Routledge/Falmer, London.

Gipps, Caroline; McCallum, Bet; Hargreaves, Eleanore; Pickering−Alison (2005). From TA to Assessment for Learning: the impact of assessment policy on teachers’ assessment practice. Paper presented at the British Educational Research Association Annual Conference, University of Glamorgan, 14−17 September 2005.

Hayward, Louise and Spencer, Ernest (2010). The Complexities of Change: Formative Assessment in Scotland. Curriculum Journal, 21 (2), 161−177.

Hodgson, Claire; Pyle, Katie (2010). A literature review of assessment for learning in science. UK National Foundation for Educational Research.

Kellaghan, Thomas (2004). Assessing student learning in Africa. Washington, D.C.: World Bank.

Kirton, Alison; Hallam, Susan; Peffers, Jack; Robertson, Pamela; Stobart, Gordon (2007). Revolution, evolution or a Trojan horse? Piloting assessment for learning in some Scottish primary schools. British Educational Research Journal, 33 (4), 605−627.

Meckes, Lorena and Carrasco, Rafael (2010). Two decades of SIMCE: an overview of the National Assessment System in Chile. Assessment in Education: Principles, Policy & Practice. Vol 17, n° 2, May 2010, 233-248.

Robert, Paul (2008). “La educación en Finlandia: los secretos de un éxito asombroso. “cada alumno es importante”. Colegio Nelson Mandela, de Clarensac, Gard, Francia. Traducción de Manuel Valdivia Rodríguez.
Shepard, L. (1992). Will national tests improve student learning?, CSE Technical report 342, CRESST, University of Colorado, Boulder.

                                               

    martes, 21 de diciembre de 2010

    ESPECIAL REFORMA 1: ¿PISA 2009 COMO ARGUMENTO PARA LA REFORMA?

    Hace unos días atrás se vio al Ministro y al Presidente dando a conocer los resultados obtenidos por Chile en la prueba PISA 2009 y señalando que estos dejan ver lo urgente de dar curso a la anunciada 'revolución educativa más importante desde los años 60'. Además de la omisión aquí con respecto a la reforma curricular impulsada desde los 90', quizás responsable en algunos puntos por la mejora en el aprendizaje de los estudiantes durante la última década, y de la distorsión que significa llamar revolución a una reforma que solamente es la continuidad lógica de las medidas de educación de la dictadura, es importante aclarar que los resultados de PISA 2009, una vez analizados, no resultan precisamente consistentes con la nueva reforma en términos de un posible fundamento para promoverla.

    Lo primero que cabría mencionar es que desde 2000 los resultados de Chile muestran una mejora progresiva, con una diferencia especialmente significativa entre 2000 y 2009 en el ámbito de lectura (sí, ese en que se quieren poner más y más horas...), tal como se observa en la Tabla 1*. Junto con ello, el país aparece liderando el ámbito latinoamericano en Ciencias y Lectura, lo que no resultaba habitual en mediciones anteriores (MINEDUC, 2004; MINEDUC, 2010a; OECD, 2010). Sobre la base de una lógica bastante básica, entonces, lo que se hace 'urgente' frente a estos resultados no es cambiar nuevamente todo lo previamente diseñado y hacer una 'revolución', sino realizar un diagnóstico más serio en que nos preguntemos qué es lo que estuvimos haciendo bien durante estos últimos años con el fin de seguir por esa ruta y modificar lo que en realidad necesita ser modificado.

    TABLA 1. Puntajes obtenidos por Chile en PISA 2000, 2006 y 2009

    Son estos resultados los que han llevado a Chile a ser mencionado en el informe McKinsey entre los sistemas educativos con mayores mejoras en los últimos años, informe que destaca la importancia de la continuidad de las reformas e innovaciones en el tiempo como un factor que favorece el mejoramiento del sistema. Esto significa que no resulta recomendable ajustar los tiempos del sistema educativo a los tiempos del sistema político únicamente porque este último necesite romper con lo hecho previamente para distinguirse como nuevo grupo de poder. Actuar así muchas veces implica interrumpir iniciativas positivas en curso, con consecuencias desastrosas.

    A modo de ejemplo, el mismo informe McKinsey destaca como factor relevante para el mejoramiento continuo la existencia de entidades mediadoras entre el poder central y las escuelas, tales como universidades que ofrecen programas de formación continua o programas de apoyo a los docentes y directivos (Mourshead et al., 2010). De hecho, los resultados de la evaluación docente confirman que los docentes que asisten a perfeccionamientos de más de 60 horas obtienen mejores resultados (MINEDUC, 2010b). Pese a ello, el 'Lado B' de la reforma de Lavín implica, entre otras cosas, menor financiamiento a la formación continua, probablemente porque su plan pasa más bien por sacar del sistema a los profesores antiguos en un nuevo ejercicio de 'limpieza' que huele a totalitarismo y a razonamiento básico. A modo de ilustración, días atrás supe del cierre del Programa de Apropiación Curricular que se venía impartiendo desde 2003 y que se había transformado en un vehículo de actualización permanente de profesores y profesoras, y de circulación de información en relación con nuevas iniciativas ministeriales. Este programa era el único que el gobierno estaba ofreciendo de forma gratuita a los docentes de Educación Media, población que ahora queda sin ninguna posibilidad de desarrollo profesional continuo. 

    Lo primero que se puede concluir, entonces, es que la mención a la urgencia de la reforma en base a PISA 2009 constituye más bien un diagnóstico hecho de forma apresurada y sin la seriedad que el tema merece. Pero no es solamente eso, sino que también es en varios aspectos un diagnóstico erróneo, sobre el cual se toman decisiones igualmente erradas.

    Los resultados arrojan efectivamente diferencias según grupo socioeconómico, presentando los estudiantes de los estratos más altos mejor puntaje que los de los estratos más bajos. Ya con estos datos parece al menos absurda la decisión relativa a los liceos de excelencia, que lo que hace es ampliar mínimamente la elite en lugar de beneficiar de forma masiva a los estratos sociales en mayor desventaja, que sería lo lógico si los resultados de PISA se estuvieran realmente considerando como base para la reforma.

    No obstante, no se trata únicamente de decisiones erróneas, sino que, en base a esta diferencia socioeconómica, el resumen de los resultados presentado por el gobierno simplifica (y distorsiona) la evidencia través de gráficos como el que se muestra a continuación (MINEDUC, 2010a: 13). 

    Figura 1. Gráfico presentado por el MINEDUC para ilustrar las diferencias de resultados por dependencia del establecimiento
    En una lectura simple se puede llegar fácilmente a concluir que los establecimientos particulares pagados deberían ser el modelo para la educación chilena e insistir en el discurso que tanto gusta a la derecha con respecto a la mala calidad de la educación pública gratuita. No obstante, la diferencia aquí expuesta se debe principalmente al origen socioeconómico de los estudiantes que acceden a los diferentes tipos de educación, y no a la buena calidad de los establecimientos privados. Así lo confirman los dichos de Guillermo Montt en una entrevista recientemente realizada por El Mercurio, en la que señala:

    "Si tomas el promedio de los colegios privados en Chile, tal como lo entiende PISA, entonces puedes concluir que les va mejor que a los municipales, pero eso es fundamentalmente por el nivel socioeconómico más alto de sus alumnos. Porque si controlas esa variable y tomas a un alumno cualquiera verás que su rendimiento no será distinto en un colegio privado que en uno público. Y eso es cierto en Chile y en muchos otros países."


    Estas observaciones confirman lo que Valenzuela et al. (2009) ya habían concluido en relación con PISA 2006. Luego de indicar la importancia del nivel socioeconómico como un factor que incide en los resultados, agregan algo que quizás escandalice a aquellos que apelan a creencias de sentido común en el ámbito educativo: "El que, controlando por otras características relevantes, los estudiantes chilenos que estudian en establecimientos públicos obtengan mejores resultados en la prueba PISA, no debería sorprendernos." (Valenzuela et al., 200: 124). ¿Extraño? ¿Significa, entonces, que el modelo no debe estar donde la selección académica y el nivel socioeconómico y cultural garantizan resultados más altos, sino donde los docentes deben trabajar con todo tipo de estudiantes provenientes de contextos diversos? Pero estos son los establecimientos que la nueva reforma está y seguirá cerrando... No, PISA definitivamente no destaca la urgencia de esta reforma... 

    Llama la atención, además, la diferencia en la trayectoria de los resultados de PISA en comparación con la que muestran los invariantes puntajes del SIMCE que año a año se utilizan para condenar al sistema público. Es cierto que se trata de evaluaciones no comparables en resultados, pues evalúan constructos diferentes y a través de ítems de diverso tipo. Sin embargo, resulta interesante examinar precisamente la diferencia de constructos y preguntas a la hora de evaluar lo disímil de las trayectorias en ambas pruebas. PISA trabaja con una noción de lectura funcional, con una mayor variedad de tipos de textos que SIMCE, sin un enfoque conceptual que exija a los estudiantes el manejo de un metalenguaje para poder responder preguntas de lectura, y contempla habilidades de lectura que no se evalúan en SIMCE, como opinar, reflexionar y comparar (Donoso y Lima, 2009). Junto con ello, en lectura SIMCE contempla solamente preguntas cerradas, a diferencia de PISA, que incluye múltiples formatos de preguntas abiertas y cerradas, lo que da mayor validez de constructo, pues una misma competencia se aplica en diversas situaciones (Donoso y Lima, 2009).

    En el caso de Matemática, lo que presenta mayores dificultades para los estudiantes parece ser que PISA les exige aplicar sus conocimientos a situaciones de la vida real (bueno, ¡pero nosotros para qué queremos eso!...), así como relacionar contenidos para resolver problemas a través de un razonamiento complejo, de mayor demanda cognitiva y que requiere una mayor profundidad en el manejo de la disciplina (Alfaro y Gormaz, 2009). No quiero decir con esto que lo exigido en PISA sea necesariamente lo óptimo, pero sí que parece relevante replantearse la perspectiva con que se construye una prueba como SIMCE. Cabe preguntarse qué tan acorde con el desarrollo de aprendizajes complejos, profundos, duraderos y aplicables a lo real resulta esta evaluación. Quizás la actual construcción del SIMCE se deba a que está asociada al currículum sin ajuste, versión que no se decidía claramente por una perspectiva y presentaba aspectos que confundían su lectura. El Ajuste Curricular 2009 podría ofrecer una buena oportunidad para replantear lo que entendemos por un aprendizaje de calidad en las evaluaciones nacionales, sin duda un mayor aporte que simplemente agregar más horas de lectura y matemática, medida cuya incidencia es nula si no se indica qué aspectos es necesario enfatizar para no hacer solamente más de lo mismo. 

    No quiero decir con lo anterior que lo único que hay que hacer es continuar con lo realizado hasta ahora; en ello hay también aspectos problemáticos. Apunto aquí más bien a los análisis poco profundos y facilistas que se utilizan para hacer creer a la opinión pública que lo que se plantea tiene un buen fundamento. Hay múltiples cambios que realizar, de eso no hay duda, pero claramente la evidencia proveniente de PISA 2009 y de los análisis serios que de esta prueba se han hecho no justifican las medidas que actualmente se están tomando, especialmente aquellas que fomentan la continuidad de la segregación, que desprestigian la educación pública y que tienen la cara fácil de la cantidad y de la expulsión como estrategia de 'limpieza' del sistema; ello corresponde más bien a la cara opuesta del lamentablemente tan manoseado estandarte de la calidad y la equidad. Hay muchas, muchísimas formas de subir en unos años unos puntos en el SIMCE, pero pocas de ellas realmente pueden mejorar los aprendizajes y la calidad de vida de los estudiantes. 

    *La progresión en lectura 2000 a 2009 se considera especialmente significativa porque, a diferencia de Ciencias y Matemática, las condiciones y construcción de las tres pruebas han sido equivalentes en las tres ocasiones, de manera que los resultados son comparables en términos de progresión en el tiempo. En el caso de Ciencias y Matemática hubo cambios en la inclusión de nuevos temas, lo que vuelve los resultados completamente comparables solamente desde 2006 en adelante.

    Referencias:

    Alfaro, Luis; Gormaz, Raúl (2009). "Análisis comparativo de los resultados chilenos en las pruebas de Matemática SIMCE y PISA". En: Cariola, L.; Cares, G.; Lagos, E. (coord.) ¿Qué nos dice PISA sobre la educación de los jóvenes en Chile? Nuevos análisis y perspectivas sobre los resultados en PISA 2006. Santiago de Chile: UCE-MINEDUC.  pp. 239 - 260.

    Bellei, C.; Valenzuela, J.P.; Sevilla, A.; Osses, A (2009). "¿Qué explica las diferencias de resultados PISA Lectura entre Chile y algunos países de la OCDE y América Latina?" En: Cariola, L.; Cares, G.; Lagos, E. (coord.). ob. cit.  pp. 149 - 170.

    Donoso, Cristián; Lima, Pablo (2009). "Análisis comparativo de la estructura interna y objetivos de evaluación de las pruebas de Lectura SIMCE y PISA". En: Cariola, L.; Cares, G.; Lagos, E. (coord.). ob. cit.  pp. 261 - 285.

    Elgueda, P. "Chile cumple con los niños desaventajados, pero les falla a los de mejor rendimiento", entrevista a Guillermo Montt [único chileno que trabajó en el informe de la prueba PISA 2009]. El Mercurio, 12/12/2010. 

    Valenzuela, J.P.; Bellei, C.; Sevilla, A.; Osses, A (2009). "¿Qué explica las diferencias de resultados PISA Matemática entre Chile y algunos países de la OCDE y América Latina?" En: Cariola, L.; Cares, G.; Lagos, E. (coord.). ob. cit.  pp. 105 - 148.

    MINEDUC (2004). Competencias para la vida. Resultados de los estudiantes chilenos en el estudio PISA 2000. Santiago de Chile, UCE-MINEDUC. 

    MINEDUC (2010a). Resumen de resultados PISA 2009 Chile. Santiago de Chile: SIMCE-MINEDUC.

    MINEDUC (2010b). Presentación Resultados Evaluación Docente 2009. Santiago de Chile: CPEIP-MINEDUC.

    Mourshed, Mona; Chijioke, C.; Barber, M (2010). How the world’s most improved school systems keep getting better. McKinsey & Company.  

    OECD (2010). PISA 2009 at a Glance. OECD Publishing.
    http://dx.doi.org/10.1787/9789264095298-en


    lunes, 20 de diciembre de 2010

    UN MANIFIESTO INICIO

    En medio del silencio enrarecido de los medios, silencio en que susurran mil mordazas, lo único que se escucha es el compás monótono y vacío del que no entiende de qué habla. Crece el cansancio en un lugar donde de educación se habla por hablar y donde las retóricas se trasladan misteriosamente de espacio; palabras como revolución disuenan en un continuo de números, cifras y gráficos que intentan explicar, burda e infructuosamente, qué significa mejorar la calidad de la educación pública, aludiendo a 'evidencia internacional' sin mencionar referencia alguna, o a 'experiencias de países exitosos' presentadas desde una ficción convenientemente edulcorada y sin contexto, conformando así una especie de base fantasmal para la actual 'reforma' educativa. La palabra equidad se codea con la de selección, conformando un disfraz al menos extravagante para lo que en realidad es una política orientada a perpetuar la exclusión, históricamente característica en nuestro sistema educativo.

    Dando el ejemplo en su voluntad de borramiento de la memoria, el Ministerio actual oculta con desfachatez lo que, desde un intento más dialóligo tras comprender el fracaso de la imposición unilateral de reformas de oficina, ya se había avanzado y construido en los últimos años. Los errores ya observados y los aprendizajes y medidas que en base a ellos se estaban tomando vuelven a su punto de partida, los errores antiguos y los nuevos se superponen, todo se hace confuso en un discurso educativo emitido por la sordera de aquel que impone de forma unilateral sin medir las consecuencias, pues no tiene los instrumentos necesarios para hacerlo.

    Por la firma de proyectos literalmente 'de papel' que se difunden filtrados, llenos de omisiones a la luz pública, maquillados como monos de circo para salir en la tele, para decir que se está haciendo algo, no importa qué. Por el cansancio frente a aquello que solo puede ser torpeza o mala intención; por no saber qué es importante, qué falta y qué es calidad; y, sobre todo, por los estudiantes que, de seguir así, no tendrán herramientas mañana para criticar lo que se está diseñando hoy, se abre un pequeño espacio de discusión aquí en Anotación Negativa.

    En contra del silencio, Anotación Negativa espera constituir un espacio donde se piense, se lea, se escriba, se opine y se expongan con fundamentos -claros, concretos y serios- las mayores problemáticas de la educación chilena, considerando la perspectiva de los diferentes actores del sistema. Quedamos abiertos a sus comentarios y colaboraciones, esperando con ello contribuir, aunque sea desde un pequeño rincón, a la necesaria, y hoy bajo sordina, diferencia de opiniones.