Desbloqueo FRP de las tablets del plan MULAN

Una de las medidas más novedodas del plan MULAN para la docencia digital durante los primeros meses de la pandemia COVID-19, fue la adquisición de tablets con conexión a Internet para que los centros educativos pudiesen cederlas al alumnado que lo necesitase para seguir la docencia a distancia. Fue una medida muy útil y efectiva que garantizó el acceso a la educación para muchos y muchas. Aún lo sigue siendo, ya que tras el curso 2019-2020, las tablets fueron devueltas por el alumnado beneficiario y este curso se han vuelto a ceder a otro.

Aunque pedimos al alumnado que no vincule la tablet con su cuenta personal y que, en caso de hacerlo, la desvincule antes hacer el Factory reset y devolverla, este curso nos hemos encontrado con una tablet con FRP Lock.

Y la antigua persona beneficiaria:

  • No recordaba su contraseña de correo.
  • Había cambiado de teléfono recientemente y ya no tenía el número que constaba en la cuenta para la recuperación.

Vaya, la Ley de Murphy en estado puro.

Afortunadamente, buscando un poco por Internet el modelo (Huawei MediaPad T5 AGS2-L09) se pueden encontrar algunos tutoriales para conseguir, usando algunos atajos durante la puesta en marcha, desvincular la cuenta y poder hacer un hard reset.

Os enlazo al que hemos seguido para desbloquear el FRP en la tablet:

Por alguna razón, el mensajito rojo no sale a la primera. En nuestro caso, estuvimos varios días probando de todas las formas posibles. Finalmente, nos salió el mensaje a la primera con las siguiente configuracion (variaciones respecto a lo que se muestra en el vídeo):

  • Conexión a router doméstico con seguridad WPA2 personal (con el smartphone haciendo de router no nos funcionó)
  • Idioma del asistente: Español
  • Dirección del proxy: una cadena aleatoria
  • Puerto del proxy: 8080

Espero que os sirva. ¡Y no olvidéis desvincular las cuentas de Google antes de reiniciar la tablet a los valores de fabrica!

Flash y la bomba lógica

En el software, una bomba lógica o de tiempo es un código que hace que un programa deje de funcionar después de determinada fecha. Parece que Adobe ha incorporado ese código en las últimas versiones de Flash para evitar que siga utilizándose después de alcanzar el final del ciclo de vida del programa o EOL.

Sin embargo, hay situaciones en las que sigue siendo necesario el uso de Flash, por ejemplo para el caso de aplicaciones de gestión web diseñadas con Flex, una tecnología basada en Flash que se popularizó bastante a mediados de los 2000, que no se hayan actualizado a tecnologias más actuales, com o HTML5.

Pantallazo del resultado de la bomba lógica

Por tanto, para poder seguir usando cualquier cosa relacionada con Flash tras la activación de dicha bomba lógica, es necesario instalar la versión de Flash 32.0.0.371, ya que todas las versiones posteriores ya están programadas para bloquearse.

Pero no es tan fácil, porque Adobe ha eliminado todas las descargas de versiones antiguas de sus servidores,. Así que hay que buscarse la vida por canales «no oficiales» para obtener el instalador de dicha versión.

Afortunadamente, archive.org, a través de su servicio de instantáneas de páginas web Wayback Machine, nos ofrece la posibilidad de recuperar los archivos que en algún momento estuvieron disponibles para descarga en la web de Adobe.

En el este enlace se puede obtener un listado con todas las instantáneas de las versiones de descarga para todos los sistemas operativos del instalador de Flash 32.0.0.371.

Recomiendo las siguientes descargas:

Para Windows:

https://fpdownload.adobe.com/pub/flashplayer/pdc/32.0.0.371/install_flash_player.exe

Para GNU/Linux:

https://fpdownload.adobe.com/pub/flashplayer/pdc/32.0.0.371/flash_player_npapi_linux.x86_64.tar.gz

La ventaja de usar estos enlaces es que se trata de los archivos originales que en su día estuvieron disponibles para descarga oficial, de los que Wayback Machine ha hecho una copia, y no de archivos disponibles desde fuentes poco fiables y que puedan haber sido alterados.

Para descargharlos, simplemente elige la versión y te llevará a una página con el calendario de copias realizadas para ese archivo. En esa página, selecciona la última copia y ha clic sobre ella. El archivo se descargará.

La última copia del archivo seleccionado se hizo el 24 de mayo de 2020 a las 7:47

Tras descargar el archivo, hay que instalarlo para poder degradar la versión de Flash a una sin la bomba lógica. A continuación explico como hacerlo en Windows y Lliurex.

Pasos a seguir en Windows

En primer lugar hay que desinstalar la versión antigua de Flash. Podemos hacerlo desde agregar o quitar programas o usando el desinstalador de Adobe.

Desinstalador de Flash

Posteriormente, reiniciamos el equipo, para asegurarnos que todo queda correctamente eliminado.

Una vez reiniciado el equipo, instalamos el archivo descargado de Wayback Machine.

Instalador de la versión 32.0.0.347

Importante: Hay que marcar que no se ha de actualizar, para que no se actualice de nuevo a una versión con bomba lógica.

Opción importante

Pasos a seguir en GNU/Linux

En este caso, tan solo basta con sobreescribir el archivo liblashplayer.so que viene en el archivo comprimido que se descarga con el que tenemos en el sistema (normalmente, en la ruta en la que esté instalado Flash, que dependerá de la distribución).

Para el caso de Lliurex se puede hacer de la siguiente forma:

Abrimos el terminal.

Para abrir el terminal, seleccionamos la aplicación XTerm

Localizamos la ubicación del archivo libflashplayer.so en nuestro sistema con el siguiente comando:

$ locate libflashplayer.so

El comando devolverá la ruta en la que está instalado Flash. En mi caso es esta: /usr/lib/adobe-flashplugin/libflashplayer.so

Ahora vamos a la carpeta en la que se ha descargado el archivo flash_player_npapi_linux.x86_64.tar.gz (usualmente Baixades).

$ cd Baixades

Descomprimimos el archivo:

$ tar -zxvf flash_player_npapi_linux.x86_64.tar.gz

Ahora copiamos el archivo que se ha descomprimido a la carpeta en la que estaba instalado el Flash, para sobreescribirlo. (hay que poner la ruta que nos haya devuelto el comando locate). Este paso nos pedirá la contraseña de administrador:

$ sudo cp flash_player_npapi_linux.x86_64.tar.gz/libflashplayer.so /usr/lib/adobe-flashplugin/libflashplayer.so

Tras reiniciar el navegador, ya debería de estar instalada la versión de Flash que no se bloquea.

El navegador

Es posible que los navegadores convencionales vayan paulatinamente bloqueando el uso de Flash. Si se pretende seguir usando Flash tras el EOL, es recomendable instalar un navegador que garantice el soporte para este tipo de contenidos, como por ejemplo Pale Moon.

Una vez realizados los procedimientos explicados arriba, podemos comprobar la versión de Flash instalada en Pale Moon desde el menú Tools > Addons en la sección Plugins. Ha de salir lo siguiente:

Flash 32.0.0.371 instalado en Pale Moon

Conclusiones

Con esta situación, una vez se pone en relieve la importancia de servicios como Wayback Machine y la importancia de webs como archive.org en el mundo tan cambiante de Internet, donde webs o contenidos que hoy són fácilmente localizables, quizá mañana ya no lo sean. Gracias a su afán archivístico, los usuarios que necesitamos seguir usando Flash después de determinada fecha, podemos hacerlo pese a los intentos de Adobe de bloquearlo completamente.

No obstante, hay que recordar que la razón por la que Adobe hace este bloqueo es por motivos de seguridad: Flash no es un complemento seguro y por eso se está eliminando de la web. Es por eso, que todos las empresas deberían actualizar su software de gestión para dejar de ser dependiente de esta tecnología obsoleta y, digámoslo así, a partir de ahora, proscrita.

Creando los carnets del alumnado con software libre

La identificación de alumnado en un centro educativo suele ser un elemento crucial, especialmente en centros grandes en los que hay que llevar un control de entradas y salidas. A esto hay que sumarle la complejidad añadida de los centros en los que se imparten enseñanzas postobligatorias, en las que el alumnado suele ser mayor de edad y, por tanto, puede salir del centro durante la jornada lectiva.

Durante años, la técnica del carnet escrito a mano con la foto pegada y todo ello plastificado, ha sido una de las soluciones más socorrida. No obstante, la elaboración de estos carnets es bastante laboriosa, ya que se hacen artesanalmente uno por uno. Esto, en centros grandes (>1000 alumnos) suele ser una tarea bastante tediosa.

Por ello, durante el curso pasado estuve buscando algún software que pudiese automatizar el proceso de creación de carnets a partir de la información proporcionada por el software de gestión de centros. Esto limitaba bastante las opciones, ya que:

  • El software sólo exporta datos del alumnado en CSV (fichero de texto, con los datos organizados en campos separados por comas), sin fotos.
  • No existe ninguna manera de descargar todas las fotos del alumnado.

Además de todo eso, se añadía una tercera limitación, esta autoimpuesta, y es el hecho de que se quiere utilizar una impresora láser a color del centro para llevar a cabo la impresión. Así, los datos del alumnado no se ceden a terceras personas ajenas al centro para la generación de las tarjetas.

La existencia de estas restricciones, junto al hecho de que todo el software propietario que encontré en Internet, de una forma u otra, no acababa de encajar con alguna de ellas, me llevaron a idear un proceso que, con la ayuda de una curiosa herramienta de software libre, me permitiesen crear todos los carnets en pocos segundos.

Un generador de cartas de rol

La pieza clave del proceso es un software libre llamado HCCD – HTML+CSS Card Designer, cuya finalidad original es la de diseñar cartas personalizadas para juegos de rol. En realidad se trata de un combinador de datos: coge un fichero CVS con la inforamación de las diferentes cartas y una plantilla gráfica realizada en HTML y CSS, y genera todas las cartas del juego siguiendo el patrón de la plantilla.

Esquema de funcionamiento de HCCD

Más información sobre HCCD en github: https://github.com/vaemendis/hccd

La idea para usar este programa para generar carnets de alumnos es simple: utilizo HCCD para generar las tarjetas del alumnado, sustituyendo la información de poderes, fuerza y magia, simplemente por su nombre, curso y si es mayor o menor de edad. Luego, hago el diseño del carnet en HTML+CSS y le doy a generar. En unos pocos segundos, tengo todos los carnets generados en la pantalla.

Carnet de menor de edad y de mayor de edad

A partir de la información del CSV, determino si el alumno es mayor o menor de edad y juego con los colores, para diferenciar fácilmente los carnets en la puerta.

Como detalle adicional, en el carnet de menor de edad, he añadido un patrón de fondo, para dificultar su alteración para hacerlo pasar por un carnet de mayor de edad.

Funcionamiento de HCCD

Cuando descargamos HCCD encontramos una carpeta con ejemplos de uso, lo mejor es partir de ahí para empezar a trabajar:

card.csv: Este archivo CSV contiene los datos que se generarán. Previamente, he organizado la información del CSV obtenido por el software de gestión en LibreOffice Calc (software libre), poniendo los nombres que aparecen entre llaves como encabezado de columna. Una vez tengo las columnas que necesito, lo he guardado como CSV otra vez.

card.html: Archivo HTML que contiene la distribución de contenidos de un carnet. Esta distribución es la que se replicará para cada uno de los carnets una vez se ejecute HCCD. Podemos modificar el diseño entre los comentarios

<!-- YOUR CUSTOM CODE STARTS HERE -->

y

 <!-- YOUR CUSTOM CODE ENDS HERE -->

Todo lo que modifiquemos fuera de esas etiquetas, será ignorado por HCCD al generar los carnets.

Los datos que se han de extraer del CSV se ponenen entre dobles llaves. A continuación, muestro un ejemplo de un HTML preparado para hacer carnets.

<!doctype html>
<html>
   
<head>
    <meta http-equiv="Content-Type" content="text/html; charset=ISO-8859-1"></meta>
    <link rel="stylesheet" type="text/css" href="unit.css">
</head>

<body>
    <div class="card">
        <!-- YOUR CUSTOM CODE STARTS HERE -->
      <div class="bg{{Menor}}">
      <script src="JsBarcode.all.min.js"></script>
      <header class="h{{Menor}}">ESTUDIANT {{Curs}}</header>
      <img src="img-NIA/{{NIA}}.png" alt="image" onerror="this.src='no-foto.jpg';"/>
      <div class="nombre"><span>{{Nom}}</span> {{Cognom 1}} {{Cognom 2}}</div>
      <div class="grupo">{{Grup}}</div>
      <div> <svg id="b{{NIA}}"></svg> </div> 
      <script>
                JsBarcode("#b{{NIA}}", "{{NIA}}", {
                  lineColor: "#000",
                  width: 2,
                  height: 20,
                  fontSize: 12,
                  margin: 0,
                  displayValue: true
                });

      </script>
      <div class="aviso {{Menor}}">
        NO POT EIXIR DURANT EL PERIODE LECTIU NI PATIS
      </div>
      <div class="curs{{Menor}}">
        CURS2021
      </div>
      <footer> 
        <div class="ies">NOM IES</div>
        <div class="mini">Dir IES - 46000 València</div>
        <div class="mini">96 000 00 00 - 00000000@mailies.es</div>
      </footer> 
    </div>
        <!-- YOUR CUSTOM CODE ENDS HERE -->
    </div>
</body>

</html>

card.css: Aquí es donde vamos a definir el aspecto, colores y ubicación de los elementos gráficos del carnet. Para ello, usaremos CSS, como si se tratase de una página web.

hccd.jar: Este es el programa que combina todo lo anterior. Necesita que JAVA esté instalado en el sistema para funcionar. Para ponerlo en marcha, basta con escribir los siguiente en un terminal:

java -jar hccd.jar

Eso abrirá la ventana de HCCD, a la que tan solo tendremos que arrastrar nuestro CSV. El resultado será un archivo llamado card-GENERATED.html en el que encontraremos todos los carnets creados, resultado de la combinación de los datos del CSV con la distribución del HTML y el aspecto gráfico definido en el CSS.

Un detalle muy interesante de HCCD es que está pendiente de los cambios en los tres archivos CSV, HTML y CSS. Cuando hacemos una modificación en alguno de ellos y guardamos, automáticamente vuelve a generar card-GENERATED.html aplicando las novedades.

Código de barras con el ID

Preparando el diseño, pensé que podía ser interesante incluir un código de barras con el identificador del alumno. Además de en la puerta, otro sitio en el que utiliza mucho el carnet de estudiante es en la biblioteca, para el préstamo. En las bibliotecas de centros es habitual tener un lector de código de barras para leer las etiquetas de los libros. Pues bien, con un código de barras en el carnet del alumnado se podría agilizar el proceso de préstamo, tal y como se hace en las bibliotecas públicas.

Puesto que el diseño del carnet se hace en HTML, se puede introducir cualquier componente compatible con una página web, también un código javascript. Eso es lo que he hecho para conseguir que, a partir del identificador del alumno, se genere un código de barras que puede ser muy útil para el préstamo de libros en biblioteca.

Para ello, he utilizado la libreria jsBarcode, que proporciona una función que genera un código de barras a partir de un número.

Más información en jsBarcode en github: https://github.com/lindell/JsBarcode

Obteniendo las fotos del alumnado

Llegados a este punto, nos encontramos con el problema de las fotos de los alumnos: el CSV que exporta el software de gestión de centros, no incluye la foto y HCCD necesita un archivo con la foto del/la alumno/a al que hacer referencia.

Un carnet sin foto no tiene mucho sentido, y para ello, es necesario descargar todas las fotos del alumnado a una carpeta del disco en el que se ejecuta HCCD. Pero esa no es una opción que proporcione el software de gestión, ¿recordáis?

Sin embargo, lo que sí proporciona este software es un documento en PDF con las fichas del alumnado; una ficha por página. Y sí, en la ficha está el identificador del alumno y su foto.

Así que, de nuevo, hay que recurrir al software libre. El formato PDF es complicado de procesar automáticamente, ya que es un archivo binario. Por eso, un paso previo sería convertir esas fichas a un formato textual, más manipulable, como HTML.

En concreto, la solución pasa por crear un script de GNU/Linux, que convierta el PDF a un HTML y después, vaya ficha a ficha, cogiendo el identificador, recortando la imagen y guardándola con el identificador como nombre de la imagen. Este proceso es un poco más entretenido y, aunque se haga automáticamente, puede tardar varios minutos.

Además, es requisito previo que todas las fotos del alumnado estén registradas en el software de gestión, para lo que será necesario un trabajo previo, durante la matrícula. Pero esa es otra historia.

Volvamos al script que obtene las fotos a partir de las fichas en PDF y al que he bautizado como pdf3nia. Este script hace uso de la herramienta de software libre pdf2html junto al potente comando convert de Imagemagick. Os pongo el enlace de descarga del script generado, por si os interesa:

Más información sobre pdf2html en github: https://github.com/shebinleo/pdf2html

Imprimiendo los carnets

Una vez generados todos los carnets, con su imagen y su código de barras, sólo queda imprimirlos. HCCD genera todos los carnets en una página HTML inmensa. Afortunadamente, el programa nos ofrece la opción de determinar cuántas cartas habrá en cada página, para facilitar la impresión forzando el salto de línea cuando toque (y evitando que se queden carnets cortados entre dos páginas).

Los campos rows y columns son fundamentales para una buena impresión.

Yo, por las dimensiones de mis carnets sacó unos 10 carnets por página en dos filas de cinco columnas, pero todo dependerá del tamaño y diseño de las tarjetas.

Así, la impresión se hace directamente del navegador (el HTML generado por HCCD) a la impresora a color. Para estas impresiones, se utiliza papel grueso tipo cartulina (A4, 120g).

El postproceso es el guillotinado de los carnets (están alineados, así que se pueden hacer varias páginas de golpe) y el plastificado individual (usando tarjetas de plastificado individuales tamaño NIF). Esta última parte es la más entretenida, pero bueno, ¡no todo iba a ser darle a un botón!

Conclusiones

Para implementar la solución, se han utilizado de manera combinada varias herramientas de código abierto disponibles de forma gratuita en Internet:

Herramientas utilizadas

Respecto al resultado, este sistema esta siendo utilizado durante el presente curso para generar los carnets. De la experiencia se pueden extraer algunos puntos positivos y negativos. Los puntos a favor del sistema son los siguientes:

  • Generación inmediata de grupos enteros.
  • Regeneración rápida de carnets sueltos (además, el alumnado no ha de traer de nuevo una foto).
  • Diseño más profesional y atractivo del carnet.
  • Inclusión de código de barras con el identificador de alumno/a
  • Una vez está el diseño hecho, basta con ejecutar HCCD y guardar el fichero CSV para que se generen los carnets automáticamente.
  • Software Libre, totalmente modificable para adaptarse a las necesidades de cada centro.

Pero, como todo, aún hay aspectos de este proceso que hay que pulir:

  • Necesidad de conocimientos medios/avanzados de informática para realizar el diseño inicial y combinar el uso de las herramientas implicadas en el proceso (pdf2nia, diseño CSS del carnet, etc.)
  • Las fotos no siempre están disponibles en el programa de gestión de centros y, escanearlas a veces es tan laborioso como hacer los carnets a mano.
  • No es un programa específico, sino la combinación de varios programas, lo que hace el proceso más complejo que en las soluciones propietarias cerradas.

En cualquier caso, este pequeño proyecto es una muestra más de lo que se puede hacer combinando varias herramientas de software libre de las muchas que hay disponibles en la red.

Cómo usar puntuación basada en la certeza (PBC) en Moodle

Una de las características más utilizadas en Moodle para la realización de exámenes en línea es los cuestionarios de opción múltiple. En la entrada anterior del blog he comentado algunas de las características que ofrece Moodle para este tipo de pruebas. En efecto, la realización de estas pruebas tienen la ventaja de proporcionar un feedback rápido al alumnado, facilita el análisis de los instrumentos de evaluación al profesorado (que puede analizar la validez de las preguntas) y, por esta, y otras razones, suele ser un sistema al que recurren un gran número de docentes.

No obstante, el uso de estas pruebas objetivas para la evaluación siempre conlleva un componente de incertidumbre debido a la posibilidad de responder al azar las preguntas que no se saben (y acertarlas).

Frente a esta situación, se suelen plantear estrategias como penalizar las respuestas equivocadas, para desalentar la respuesta al azar, o aumentar el número de opciones en las preguntas para disminuir la probabilidad de acierto.

Pero existe una tercera vía que no se basa en desalentar la respuesta cuando no se sabe o no se está completamente seguro (no olvidemos que equivocarse es la mejor forma de aprender), sinó en valorar también el grado de seguridad con la que el alumnado marca esa respuesta: en ese caso, la puntuación estará basada en la certeza.

Puntuación basada en la certeza (PBC)

La puntuación basada en la certeza (PBC) incluye a cada pregunta de opción múltiple del cuestionario un «medidor de certeza», mediante el que el alumnado deberá indicar el grado de seguridad que tiene en que la respuesta que ha marcado sea correcta, entre bajo (está poco seguro), medio y alto (está muy seguro).

Ejemplo de pregunta con PBC

Así, la calificación obtenida en la pregunta dependerá, no sólo de la corrección de la respuesta, sinó del grado de certeza indicado, tal y como indica la siguiente tabla:

Fuente: https://docs.moodle.org/all/es/Usando_Puntuaci%C3%B3n_Basada_en_Certeza

De ese modo, si la respuesta es correcta, se obtendrá mayor puntuación en el caso de que se tenga más certeza (3 puntos), pero si no existe mucha certeza (es decir, si se ha acertado al azar) se obtendría sólo 1 punto.

Para el caso de la respuesta incorrecta, si se ha marcado con bajo nivel de certeza ni suma ni resta, pero a medida que aumenta la certeza ante una respuesta incorrecta, se penaliza la puntuación. Así, marcar una respuesta incorrecta con una certeza absoluta restaría 6 puntos.

Según la tabla, se entiende por una certeza alta el estar seguro a más de un 80% y una baja certeza si se está menos de un 67%. Lo que hay entre medias, es el grado medio de certeza.

Así, ante una pregunta, si el alumno está seguro de la opción correcta, se deberá marcar la certeza como alta. Pero si la respuesta fuese incorrecta, ¡ se perdería el doble de puntos (-6)!.

Si se está inseguro, para evitar la pérdida de puntos, se debería marcar que el grado de certeza es bajo.

Si no se está del todo seguro ante una respuesta, se debería marcar un grado de certeza intermedio: se ganarían o perderían 2 puntos, en función de si se acierta o no.

Como se puede observar, en esta variante de la tradicional penalización por respuesta incorrecta, se tiene una serie de ventajas:

  • Obliga al alumnado a reflexionar sobre su respuesta y autoevaluarla.
  • Motiva a los estudiantes a que traten de entender los enunciados y no respondan lo primero que les pase por la cabeza.
  • Supone un desafío: si un estudiante no se arriesga a perder puntos si se equivoca, entonces es porque realmente no conoce la respuesta.
  • Ayuda a ganar confianza al alumnado.
  • Es más justo, pues una respuesta correcta pensada y certera merece más puntos que una adivinanza afortunada.

Interesante, ¿no os parece? Veamos cómo se puede activar esta manera de evaluar en Moodle.

Cómo activar la PBC en Moodle

La PBC está implementada en Moodle, aunque se recomienda realizar una serie de actuaciones administrativas previas a su uso (o verificar que se han hecho con los administradores del sitio).

Para añadir PBC a un cuestionario, es tan sencillo como ir a Editar ajustes y en la sección Comportamiento de las preguntas, seleccionar retroalimentación diferida con CBM (si se selecciona retroalimentación inmediata con CBM, el cuestionario se calificará pregunta a pregunta, y no todo junto al final)

CBM son las siglas en inglés, Certanly-Based Marking

Con eso, las preguntas sobre el grado de certeza se añadirán automáticamente a todas las preguntas del cuestionario.

Resultado de un cuestionario con PBC (cuestionario con 22 preguntas)

Como se puede ver en la captura, tras realizar el cuestionario, el valor de las preguntas varía en función al grado de certeza indicado. Por tanto, las calificaciones oscilarán entre -600 y 300, en lugar de entre 0 y 100 que sería lo habitual.

Atención a la configuración de Moodle

La modificación en la escala de calificación que provoca la PBC puede ocasionar problemas si el Moodle no está configurado adecuadamente, ya que que el calificador «trunca» una nota superior a 100 a 100. Así, a un alumno que obtenga un 150 en la prueba, se le asignará un 100 en el calificador, la misma nota que el que ha obtenido un 300 (como si hubiese sacado 10, en lugar de un 5, que es la nota que le correspondería).

Como te puedes imaginar, eso puede generar una gran cantidad de dieces en el examen. En realidad, cualquier alumno que responda un 33% de las preguntas del examen con certeza alta (y acierte) sacaría un 10 si dejase el resto del examen en blanco. Y con un poco más del 15% de las preguntas ya llegaría al 5.

Es más, debido a esta limitación, si un alumno marca siempre la opción de certeza baja, el comportamiento del examen será exactamente el mismo que si no hubiese PBC: si está correcta suma un punto, en otro caso no.

Con las notas negativas no hay problema, ya que el calificador las convierte en 0, por lo que no afectarían negativamente al promedio del curso. Bueno sí, pero no restando.

Para evitar que eso ocurra, ‘Calificaciones sin límites‘ debe estar activada en ‘ Administración del sitio -> Calificaciones -> Configuraciones generales ‘ para que las calificaciones no estén limitadas al 100%. Para ello, habría que contactar con el equipo de administración del sitio Moodle, exponerles la situación y solicitar la activación de esa casilla.

Y, ¿que pasa si, por el motivo que sea, se decide no activar esa casilla? En el siguiente apartado, propongo una solución «manual» al problema.

Por cierto, esto NO está activado en AULES.EDU, así que si utilizas esa plataforma, sigue leyendo.

Evitar la sobrecalificación de forma manual

Si la configuración general de el sitio Moodle no se puede modificar para acomodar las modificaciones en la escala de calificación de la PBC y, aún así, queremos utilizar esta modalidad de calificación sin provocar que el calificador puntúe con un 10 a todos los alumnos que hayan obtenido un 100 o más (poco más de un 3), habrá que consignar las calificaciones obtenidas de forma manual.

En primer lugar, lo que haremos será ocultar en el calificador de Moodle el cuestionario que se va a calificar con PBC. Para ello, crearemos una categoría oculta y trasladaremos el cuestionario a ella. Además, haremos que esa categoría no sea tenida en cuenta a la hora de calcular la calificación del curso. De ese modo, evitamos confundir al alumnado, que ya no verá esa nota truncada.

Para ello, vamos al Calificador > Configuración de calificaciones y creamos una categoría nueva, por ejemplo «Calificaciones ocultas».

El acceso a esta sección dependerá del tema y la versión de Moodle
El botón para añadir categoría está en la parte inferior
Dejamos rel resto de valores por defecto y le damos a Guardar Cambios

Ahora, trasladamos el cuestionario a esa categoría. Desde Configuración de calificaciones, buscamos el cuestionario y lo «movemos» a la nueva categoría.

Para mover el cuestionario a otra categoría, apretar en las flechitas

Ahora, el cuestionario estará dentro de la categoría «Calificaciones ocultas». Buscamos la categoría, le ponemos una ponderación de 0, para que no tenga en cuenta esas calificaciones en el cálculo de la calificación global y la ocultamos, dándole a Editar > Ocultar

El alumnado no verá la categoría en su libro de calificaciones

El siguiente paso es añadir un ítem de calificación manual en la categoría en la que se encontraba anteriormente el cuestionario. Para ello pulsamos el botón que hay bajo «Añadir catagoría». Yo voy a ponerle al ítem el mismo nombre que tenía el cuestionario, para hacer transparente el cambio:

Lo demás lo dejo por defecto
Ubico el ítem de calificación en el lugar que solia ocupar el cuestionario, para no levantar sospechas.

Volvemos al informe del calificador, donde aparece el nuevo ítem en su sitio. Le damos al icono del lápiz para editar las calificaciones manualmente.

Seleccionamos el icono del lápiz

Ahora se trata de poner la calificación realmente obtenida por el alumno en cada caso. Para ello, tenemos que que hacer la regla de 3, para ver cual es el valor sobre 100 de la calificación obtenida por el alumno sobre 300 con PBC. Por ejemplo, si el alumno tiene un 135 en cuestionario, lo multiplicamos por 100 y dividimos el resultado por 300. En realidad, tiene un 45, que es la nota que pondremos manualmente. Así con todos (una hoja de cálculo puede ser de gran ayuda para hacer esto).

Ponemos la nota real calculada «a mano»

Con eso, el alumnado verá en su libro de calificaciones la nota real y, lo que también es importante, esta es la calificación que se agregará con las demás para obtener la calificación global del trimestre o curso.

Vista del alumnado del libro de calificaciones modificado

Pero, atención, si el alumno entra al cuestionario, allí seguirá viendo la nota obtenida en el intento (sobre 300). Para evitar confusiones, se recomienda poner una advertencia en el enunciado del cuestionario indicando que el cuestionario se evalúa sobre 300 puntos. Así, no se llevarán ninguna sorpresa al ver que la calificación difiere de la que hay en el calificador, que es lo mismo, pero sobre 100 puntos.

PBC en AULES.EDU

Para los usuarios de AULES.EDU, el entorno de aprendizaje de la Generalitat Valenciana, la opción de puntuación basada en la certeza está disponible, pero NO está activada la opción para su integración con la hoja de calificaciones, por lo que será necesario configurar manualmente el ítem de calificación, tal y como se explica en el apartado anterior.

Conclusiones

En definitiva, la PBC pretende aproximar una calificación más justa en las pruebas de respuesta objetiva, invitando a la reflexión y autoevaluación del resultado. No hay que dejar de lado las lecturas que puede hacer el alumnado del resultado de la prueba a partir de los resultados obtenidos para cada grado de certeza: quizá sabe más de lo que cree (o al contrario).

No olvidemos que hay ciertas competencias que son difíciles de evaluar con una prueba objetiva con preguntas de «tipo test», como pueden ser la creatividad, el análisis o la capacidad de síntesis. Además de eso, en este tipo de pruebas la calidad de las preguntas también es muy importante para hacer una buena lectura de evaluación y la PBC no resuelve ese problema.

Si bien es cierto que la falta de integración «por defecto» de este tipo de puntuación con el calificador de Moodle puede generar algún problema si n o tomamos las precauciones adecuadas.

En cualquier caso, si optamos por ella, la PBC supone una herramienta útil para estimular un pensamiento más cuidadoso y un mejor aprendizaje que la simple calificación de acertado/erróneo en las cuestionarios con preguntas de opción múltiple.

10 ideas para hacer exámenes en línea eficaces con Moodle

Moodle es una herramienta muy completa y versátil para la docencia en línea, con múltiples opciones para diseñar la interacción telemática con el alumnado y con tareas que son capaces de proporcionar una versión virtual de cualquier actividad que se pueda proponer en un aula.  Esto convierte a este LMS en una buena elección cuando se pretende impartir un curso de forma no presencial o complementar uno presencial con un aula virtual.

Sin embargo, el uso de Moodle para la realización de pruebas individuales de evaluación (los temidos exámenes) siempre ha generado cierta desconfianza , especialmente en el contexto de la educación a distancia. Lo cierto es que estos exámenes, muchas veces, tienen un peso elevado en la evaluación y la falta de supervisión directa del alumnado, así como las posibilidades de un ordenador conectado a Internet (que es la herramienta de que dispone el alumnado para hacer la prueba en su casa) pueden  hacer poco fiable el resultado obtenido.

A lo anterior se han de sumar los posibles problemas derivados de la heterogeneidad en lo que refiere a las condiciones de acceso y conexión del alumnado. Hay que anticiparse a los problemas que se puedan ocasionar (desconexiones, errores en el servidor, etc.), y preparar la actividad para poder dar una solución a gran parte de estos problemas, principalmente, para la tranquilidad del alumnado.

Además de eso, muchas veces la elección y/o diseño de las preguntas puede ser poco aprppiado, no consiguiendo medir adecuadamente lo que se pretende medir pues, al fin y al cabo, de lo que se trata es de que el alumnado demuestre su grado de adquisición de los resultados de aprendizaje propuestos. Y para eso es necesario elegir muy bien las preguntas.

Moodle dispone de una tarea para realizar cuestionarios y una sección de banco de preguntas para diseñar las preguntas que se usarán en esos cuestionarios, con muchas posibilidades de configuración . Esto permite, entre otras cosas, preparar nuestros exámenes en línea con mayores garantías de fiabilidad y analizar nuestras preguntas para validar su eficacia a la hora de medir el grado de adquisición de los objetivos.

El propósito de esta entrada es dar algunas ideas para aprovechar las funcionalidades de los cuestionarios de Moodle (o AULES.EDU, que es el nombre que recibe la aplicación basada en Moodle proporcionada por la GVA) con el objetivo de conseguir exámenes a distancia más eficaces:

#1 Usar formatos de importación de preguntas

Una de las primeras cosas con las que se encuentra quien empieza a poblar el banco de preguntas de Moodle es lo tedioso que resulta ir editando pregunta a pregunta directamente desde la web. Esto es especialmente desesperante cuando se han de generar baterías grandes de preguntas (pongamos más de 50).

Afortunadamente, existen un método muy ágil para redactar esas preguntas desde un editor sencillo de texto usando unos formatos determinados que luego, pueden ser importados a Moodle, que ya se encarga de generar todas las preguntas automáticamente.

Por ejemplo, si las preguntas que se quieren generar son todas de opción múltiple, se puede usar el formato Aiken que es más sencillo de todos: basta con escribir en un documento de Notepad (extensión .txt) las preguntas con el siguiente formato:

¿Cuál es la respuesta correcta a esta pregunta?
A. ¿Es esta?
B. ¿Quizá esta?
C. ¿Tal vez esta otra?
D. ¡Debe ser esta!
ANSWER: D

¿Cuál es la respuesta correcta a esta OTRA pregunta?
A. Podría ser esta
B. No, mejor esta
C. ¡Esta es la correcta!
D. Esta seguro que no es
ANSWER: C

(...)

Es decir, cada pregunta está formada por su enunciado, cada una de las opciones de respuestas precedida de una letra con un punto y, al final, la palabra ANSWER: con la opción correcta.

Si se quieren usar otros tipos de pregunta además de las de opción múltiple, hay que recurrir a otros formatos, como GIFT. El funcionamiento es similar (escribir las preguntas en un documeento de texto plano), aunque con una sintaxis diferente.

Si se quieren añadir imágenes al enunciado de la pregunta, GIFT permite usar el etiquetado markdown en el enunciado, lo que nos permite subir la imagen a un servicio de almacenamiento de imágenes como PostImage y pegar el enlace generado al texto (precedido por la etiqueta [markdown], para que reconozca la imagen):

Cuando subimos una imagen a PostImage, nos proporciona, entre otros, lo que tenemos que pegar en el enunciado de la pregunta GIFT

Lo pondríamos de la siguiente manera en formato GIFT:

[markdown]¿Cuál es la respuesta correcta a la pregunta de esta imagen? [unnamed.jpg](https://postimg.cc/hXtDx5qK)
{
~ ¿Es esta?
~ ¿Quizá esta?
~ ¿Tal vez esta otra?
= ¡Debe ser esta!
}

Para importar las preguntas, una vez tenemos el documento de texto plano (*.txt) con las preguntas redactados en el formato seleccionado, vamos a Banco de preguntas -> Importar, seleccionamos el formato de importación y subimos el archivo de texto.

Es recomendable crear una categoría específica para importar las preguntas a ella (desplegar General), de ese modo si se produce algún fallo en la importación, las podremos borrar fácilmente.

#2 Usar preguntas abiertas

Las preguntas de opción múltiple pueden sor útiles para evaluar determinados aspectos del aprendizaje, pero al ser respuestas cerradas, no dan opción para evaluar otros, como la capacidad de análisis o reflexión a la hora de seleccionar una respuesta o la expresión escrita u oral del alumnado.

De hecho, al poder seleccionar entre un conjunto de opciones cerrado, la persona evaluada puede jugar con el azar para responder, devaluando la fiabilidad del resultado obtenido.

Por ello, resulta interesante añadir preguntas de tipo abierta, en las que el alumnado deba de redactar la respuesta con sus propias palabras. Para eso tenemos la pregunta Ensayo como una de los tipos de preguntas que se pueden crear en el Banco de preguntas.

En este tipo de pregunta, se hace una pregunta abierta para la que se tiene un campo de texto para responder. Incluso se puede definir una plantilla de respuesta para que salga en la caja de texto y así guiar o estructurar la manera en la que se redactará dicha respuesta.

En la caja de respuesta aparece loq ue se ha definido como plantilla de respuesta.

También se tiene la opción de subir archivos, con lo que el alumnado, puede grabar un audio o vídeo y subirlo como respuesta a la pregunta.

Evidentemente, este tipo de preguntas se han de corregir individualmente, a diferencia de las de opción múltiple que, una vez configuradas, se corrigen automáticamente.

#3 Usar la aleatorización

Cuando se hacen exámenes en los que no se puede tener una supervisión en alumnado, siempre cabe la posibilidad de que alguien tenga la tentación de hacer trampas: varias personas en una casa haciendo el examen juntos, usar una aplicación de chat para responder entre todos o cualquier otra variante que suponga hacer examen de forma colaborativa eliminando el componente de individualidad requerido para una correcta evaluación. La aleatorización en las preguntas puede dificultar estas prácticas, haciendo que los exámenes de todos los alumnos sean diferentes.

Esta aleatorización que puede ser usada de diferentes maneras:

Para generar exámenes con preguntas diferentes

Creando un banco de preguntas muy grande, por ejemplo de 100 preguntas de las cuales se seleccionen 20 al azar para cada ejemplar del examen. De esta manera, cada examen sería diferente. Esto se puede hacer a la hora de editar las preguntas de un examen, seleccionando en Editar cuestionario la opción de Añadir preguntas aleatorias:

Se pueden añadir de golpe tantas preguntas aleatorias como se quieran. Todo dependerá del tamaño del Banco de preguntas.

Para que el orden de la preguntas sea aleatorio

Esto hará que las preguntas no se muestren en el mismo orden que en la pantalla de editar cuestionario, por lo que cada ejemplar del examen tendrá las preguntas en un orden diferente, en diferentes páginas, provocando que sea difícil responderlo «en paralelo». Esto se hace marcando la casilla en Editar cuestionario:

Así, no habrá dos preguntas en el mismo orden en dos intentos diferentes

Para que el orden de las respuestas sea aleatorio

Es decir, para que no se corresponda al orden definido al redactar la pregunta, lo que provoca que en unos intentos la respuesta a una pregunta sea la A y en otros la B. Eso se activa desde Editar ajustes cuestionario en Comportamiento de las preguntas:

Es la opción por defecto

Preguntas de cálculo con números aleatorios

Si la pregunta requiere de realizar cálculos, podemos plantearla de manera que Moodle sepa la fórmula para obtener la respuesta y a cada intento le de una combinación de valores diferentes. Por tanto cada alumno tendrá que operar con valores diferentes y el resultado será distinto en cada caso. Esto se hace desde el banco de preguntas, añadiendo una pregunta de tipo calculada.

Evidentemente, todas estas opciones pueden ser combinadas para dar todavía un mayor grado de entropía a la generación del examen.

#4 Crear variantes de preguntas

A veces, en lugar de tener una gran de cantidad de preguntas diferentes en el banco de preguntas, es conveniente crear variantes de una misma pregunta. De este modo, el alumnado no recibe en cada instancia del examen una selección completamente distinta de preguntas, lo que puede crear suspicacias sobre «la suerte» en las preguntas recibidas, sino que reciben preguntas similares en cuanto a temática, pero en las que se preguntan cosas diferentes para que la respuesta no sea la misma.

Para hacer esto, basta con definir las variantes que se quieren hacer de una misma pregunta y ponerlas todas bajo la misma subcategoria.

Por ejemplo, creamos una categoría Examen3EV y dentro de ellas, las siguientes subcategorías:

  • Examen3EV
    • E3EV-Pregunta1
    • E3EV-Pregunta2
    • E3EV-Pregunta3
    • E3EV-Pregunta4
    • E3EV-Pregunta5

Ahora lo que haríamos sería crear, por ejemplo cinco variantes para la pregunta 1 (por ejemplo, se plantea el mismo enunciado, pero en cada variante se pregunta el cálculo de un aspecto diferente del mismo).

Para hacer esto, resulta muy interesante la opción de duplicar pregunta, así sólo tenemos que modificar la última variante cada vez.

Una vez hemos creado varias variantes para cada pregunta y la hemos puesto cada una en la categoría correspondiente, diseñaríamos el examen con cinco preguntas, de manera que la pregunta 1 sería una pregunta aleatoria de la categoría E3EV-Pregunta1, la pregunta 2 una aleatoria de la categoría E3EV-Pregunta1 y así sucesivamente.

De ese modo, no habrán dos exámenes iguales, aunque los contenidos de todos los exámenes sí serán muy similares.

#6 Controlar el comportamiento de las preguntas antes, durante y tras la prueba

Una de las ventajas de los cuestionarios de Moodle es que, una vez diseñados, se corrigen automáticamente. De este modo, el alumnado puede recibir el feedback de la evaluación en el preciso instante en que le dan clic a entregar. Sin embargo, quizá no sea una buena idea que en un entorno no controlado como el de los alumnos haciendo el examen en casa, unos alumnos ya puedan saber si han hecho bien o mal el examen, que preguntas han fallado o cuáles eran las respuestas correctas.

Para controlar esto, hay una serie de opciones en la configuración del cuestionario que nos permiten definir cómo se comportará el cuestionario una vez se haya entregado.

Si vamos a Editar ajustes en una actividad de tipo cuestionario, las veremos.

Lo primero es determinar cuándo se abre y se cierra el formulario, esto es, entre que dos momentos el alumnado podrá acceder al cuestionario. Eso está en Temporalización.

Si el cuestionario tiene fecha de apertura, el alumnado no podrá acceder a él hasta que llegue ese momento.

La siguiente opción que nos interesa son las Opciones de revisión.

¿Qué información tendrá el alumno en cada estado del formulario?

Para entender esa tabla, lo que hay que tener claro son los diferentes estados por los que puede pasar un cuestionario, pues eso es lo que se está definiendo:

  • Durante el intento: Lo que verán en el moemnto mismo en que estén haciendo el intento. Por defecto, sólo ven las preguntas (el intento)
  • Inmediatamente después del intento: Esto es lo que podrán ver cuando le den a Terminar y durante unos minutos. Por defecto, al estar todo desactivado, no tendrían acceso a nada (ni siquiera volver a ver las preguntas) una vez entregan.
  • Posteriormente, cuando el intento aún está abierto: Esto es lo que podrán ver después de esos minutos y mientras el formulario esté abierto (no se haya llegado a la fecha de cierre definida anteriormente). En el ejemplo, los alumnos podrían ver la nota obtenida, pero ni las preguntas acertadas, ni las correctas.
  • Una vez el cuestionario esté cerrado: Esto es lo que podrán ver cuando ya se haya vencido la fecha de entrega, es decir, cuando ya todos han finalizado el examen, por tanto ya se puede dar más información (revisar el examen, saber qué se ha fallado, ver las respuestas correctas…). Lo que interese en cada caso.

#7 Paginar el examen

Cuando se seleccionan las preguntas del examen, se le puede definir cuantas preguntas habrá en cada página. Adicionalmente, en Editar ajustes del cuestionario se puede repaginar a otro valor. Con esto, podemos controlar cuántas preguntas aparecerán al alumnado en cada página.

Cada 5 preguntas, será necesario pasar a otra página

¿Y por qué es esto importante? Pues porque cada vez que se cambia de página, Moodle guarda las respuestas que ha introducido el alumnado. De esa manera, si se le cuelga el navegador, se le apaga el ordenador, se va la luz u ocurre cualquier otra imprevisible situación que haga que un alumno se desconecte del examen, las preguntas que haya introducido se recuperan en el momento que vuelve a conectarse.

No hace falta imaginar lo desastroso que sería una situación como esta para cualquier estudiante, cuando a 10 minutos del final del examen se le acaba la batería del portátil, ¡con 30 preguntas ya respondidas!

De este modo, solo se perderían las respuestas dadas en página en la que estaba en el momento del «accidente» (que es la única que no se ha guardado). En el peor de los casos, con la configuración mostrada anteriormente, serían 5 preguntas.

Hay que tener en cuenta que el hecho de que se guarden las preguntas consignadas no implica que el examen se entregue con esas preguntas en caso que el alumno no pudiese reengancharse. Dependerá de la configuración del cuestionario.

Con esta opción, el examen se entrega automáticamente cuando se llega a la fecha de finalización.

#8 Controlar el tiempo

Una de las medidas más efectivas para garantizar la fiabilidad de la prueba a distancia es limitar el tiempo para resolver la prueba. De esa manera, se limitan las opciones para buscar asesoramiento en otras personas, en el libro de texto o Internet.

Para hacerlo, hay que indicar el Límite de tiempo en los ajustes de cuestionario. Incluso se puede definir un periodo de gracia, que se iniciaría en el momento que se llegue a la hora de cierre del cuestionario, en el cual el alumnado ya no puede responder a más preguntas y tiene que decidir si entregar o no.

Examen de 50 minutos con un periodo de gracia de 5 minutos

Cuando se activa esta opción, a los alumnos se les muestra en una zona visible del cuestionario el tiempo que les queda restante. El temporizador empieza a contar desde el momento que se accede.

Un dato curioso: según la documentación de Moodle, si un alumno empieza el cuestionario mientras aún esta abierto, pero lo entrega después de que esté cerrado (porque el límite de tiempo es mayor) sólo se tienen en cuenta para la calificación las preguntas consignadas antes de que se cierre el cuestionario. Cuidado con esto.

En cualquier caso, recomiendo sincronizar el comienzo de la prueba, para que todos los alumnos empiecen al mismo tiempo y, si es necesario ampliar el plazo para el cierre del cuestionario para todos. Esto se puede hacer poniendo una contraseña para acceder al examen desde los Ajustes del cuestionario, que no se dará al alumnado hasta que todos hayan conseguido llegar a la pantalla del password. Así todos empiezan a la vez.

La contraseña puede ser la primera pregunta del examen. Es broma.

#9 Analizar el desempeño de las preguntas

Para que un examen en línea sea eficaz, no basta con configurar correctamente la actividad, también hay que seleccionar y redactar adecuadamente las preguntas que se van a hacer.

En primer lugar, antes de redactar las preguntas, es importante tener claro el nivel de conocimiento del alumnado que queremos evaluar, para así seleccionar enunciados acordes a lo que se quiere medir.

Aún así, es posible que las preguntas seleccionadas no sean los instrumentos adecuados para medir el nivel de conocimiento, pero eso sólo lo sabremos una vez hayamos probado el cuestionario.

Moodle, nos ofrece una herramienta para analizar las estadísticas del examen y determinar qué preguntas son demasiado fáciles (más del 70% del alumnado las aciertan) o demasiado difíciles (menos del 20% del alumnado la acierta). Para acceder a ella, una vez realizado el examen, vamos a Administración > Administración del examen > Resultados > Estadísticas

Dentro de esta sección, podemos ver las estadísticas generales del cuestionario y las estadísticas pregunta a pregunta.

Resultados de un cuestionario en el que se aprecian preguntas con un índice de facilidad inapropiado.

Donde:

  • Q#: Muestra el número de la pregunta (su posición), ícono del tipo de pregunta, y los íconos de vista previa y edición
  • Nombre de la pregunta: El nombre de la pregunta.
  • Intentos: Cuantos estudiantes intentaron esta pregunta. Puede variar en caso de aleatorización.
  • Índice de Facilidad: El porcentaje de estudiantes que contestó correctamente la pregunta.
  • Desviación estándar: Cuánta variación hay en la puntuación para esta pregunta.
  • Puntación por adivinar aleatoriamente: Lo que obtendría estudiante adivinando aleatoriamente.
  • Peso Deseado/Efectivo: El peso deseado es lo que se ha configurado cuando se edita el examen. Si la pregunta 1 vale 3 puntos de un total de 10 que vale el examen completo, entonces el peso deseado es 30%. El peso efectivo es un intento para estimar, a partir de los resultados, cuanto de la variación real se debió a esta pregunta. Así, idealmente los pesos efectivos deberían estar cercanos a los pesos deseados.
  • Índice de Discriminación y Eficiencia Discriminatoria : Es la correlación entre la puntuación para esta pregunta y la puntuación para el examen completo. Así, para una buena pregunta, se espera que los estudiantes que obtengan una calificación alta en esta pregunta sean los mismos estudiantes que tengan calificación alta en el examen completo. Los números mayores son mejores.

A partir de un análisis de estos resultados, podemos determinar qué preguntas son más efectivas y replantear aquellas que no lo sean.

Esta herramienta también es muy interesante para cuando se usan variantes de una pregunta, como se ha explicado más arriba, para determinar que todas las variantes tienen un índice de facilidad similar.

Aprovecho este punto para enumerar una serie de recomendaciones que, generalmente, conducen a la redacción de preguntas más eficientes:

  • Evitar preguntas capciosas. No se trata de confundir al alumnado, sino de averiguar qué es lo que saben.
  • Evitar usar demasiadas preguntas de Falso/Verdadero. Hay que tener en cuenta que, especialmente en el campo de las ciencias, pocas afirmaciones son siempre 100% verdaderas o siempre 100% falsas. Además, este tipo de preguntas tiene un 50% de probabilidad estadística de ser acertadas al azar.
  • Evitar demasiados ítems para relacionarse en preguntas de los tipos de relacionar columnas. Esto, además de apabullar al alumnado, provoca que se presenten demasiados ítems a la vez y causa demasiado desplazamiento del cursor, dificultando la lectura. Por la misma razón, evitar que las respuestas sean muy extensas.
  • Para las preguntas de opción múltiple con múltiples respuestas correctas, hay que asignarles puntos negativos a las opciones incorrectas, para que los estudiantes no reciban una calificación positiva si seleccionan todas las opciones.
  • Evitar crear respuestas que sean obviamente incorrectas. Las respuestas han de ser plausibles (creíbles para los que no están seguros). Esta puede ser una de las partes más difíciles al redactar preguntas.
  • Procurar que la longitud de todas las respuestas sea similar a la longitud de la respuesta correcta. Muchas veces, la respuesta correcta es la más larga, y esto permite identificarla a los estudiantes.
  • Evitar usar la palabras como no o excepto en la redacción de las preguntas. Generalmente, la negación en los enunciados dificultan la comprensión del la pregunta.
  • No se recomienda usar las fórmulas «Ninguna de las anteriores» o «Todas las anteriores» como opción de respuesta verdadera o falsa. Y si se usan, para evitar problemas con la aleatorización, es recomendable redactarlas como «Ninguna de estas» o «Todas estas»

#10 Renovar preguntas con frecuencia

A partir del momento en que se realiza un examen, las preguntas del mismo son susceptibles de ser recopiladas, especialmente si no hay supervisión directa por parte del profesorado (recordemos que hablamos de exámenes a distancia). Con un poco de ingeniería social, es bastante plausible que todas o casi todas las preguntas del banco de preguntas acaben en un documento que acabe circulando entre el alumnado.

Con ese documento y un poco de destreza en el uso de las herramientas del procesador de texto, localizar la respuesta a una pregunta es cuestión de segundos. Ni siquiera la limitación de tiempo por pregunta explicada más arriba puede dificultar esta práctica.

Dicho de otro modo, no es recomendable usar el mismo banco de preguntas más de una vez. Ni siquiera en cursos académicos o grupos diferentes.

Esto implica que hay que ir actualizando el banco de preguntas constantemente. Si lo enlazamos con el punto anterior, esto supone una oportunidad para ir actualizando las preguntas a partir de los resultados estadísticos obtenidos en el análisis de las mismas.

De hecho, lo ideal sería crear cada curso académico (o grupo) un nuevo banco de preguntas, basado en el de cursos anteriores, pero que también incorpore preguntas específicas sobre debates y ejemplos que se hayan visto durante el presente curso. En ese sentido, es muy recomendable ir poblando el banco de preguntas a medida que se avanza materia y no de golpe en cuando se acerca el momento de la evaluación. Pues, como bien sabemos, estudiar todo el día antes del examen no es siempre la mejor estrategia para obtener unos buenos resultados.

Conclusiones

Como se ha visto, Moodle es una herramienta muy versátil a la hora de diseñar cuestionarios, contemplando una gran cantidad de supuestos y casos de aplicación. Esto permite usar este tipo de actividades tanto para la realización de exámenes finales, actividades de repaso o como mera herramienta para recolectar información (por ejemplo, para hacer una evaluación inicial).

En ocasiones, este exceso de parámetros configurables suele ser motivo de críticas hacia Moodle, por su complejidad. Es cierto que tanta opción puede abrumar un poco al principio, pero en cuanto se empieza a hacer pruebas y se investiga un poco, en seguida se le encuentra la justificación y utilidad a cada una de ellas. A diferencia de otras herramientas, mucho más sencillas y fáciles de utilizar, que a la larga resultan muy limitadas.

Seleccionar una combinación u otra de los posibles valores de la configuración dependerá del tipo de prueba que se quiera realizar, del perfil del alumnado al que se vaya a aplicar y de los contenidos que se quieran evaluar. En definitiva, es el docente el que tiene que seleccionar estas opciones en función a sus necesidades y no al revés.

100 buenas prácticas de Aprendizaje Servicio

Guía elaborada por la Red Española de Aprendizaje Servicio donde se pueden consultar ejemplos comentados de 100 experiencias de aprendizaje servicio clasificadas por el nivel educativo (edad del alumnado) en el que tienen lugar.

Se trata de un documento muy interesante para todos aquellos que estamos interesados en este tipo de planteamiento metodológico, ya que se pueden extraer multitud de ideas de los proyectos comentados para diseñar nuestros proyectos ApS.

Algunos de los proyectos que aparecen en la guía han sido premiados en las últimas ediciones de los  Premios ApS. El proyecto PRINT3D, del que ya se ha hablado anteriormente en este blog, fue premiado en la edición 2019 en la categoría de enfoque TIC, por lo que la descripción detallada de su desarrollo se puede tomar como un ejemplo más,  el 101.

 

https://es.slideshare.net/cmillanb/100-buenas-prcticas-de-aprendizaje-servicio

Recursos educativos libres para la impresión 3D en el aula

Si has seguido las últimas entradas del blog, ya sabrás de qué iba el proyecto Erasmus+ PRINT3D (y si no lo has hecho, te recomiendo que le eches un vistazo a esta entrada). Sea como sea, si has llegado aquí, probablemente  estés interesado en las posibilidades de la impresión 3D en el aula. Durante mi participación en el proyecto, he tenido la fortuna de compartir con otras personas, profesores de otras regiones y países, estas inquietudes. Lo cierto es que hay gente que está haciendo verdaderas maravillas : Los límites los marca la imaginación y la creatividad.

En cualquier caso, para aquellos que queráis comenzar con la impresión 3D y/o utilizarla en el aula, he decidido recopilar en esta entrada los recursos educativos libres que se han generado de manera directa o indirecta como resultado de la implementación del proyecto.

Son los siguientes:

Dos cursos online de autoformación elaborados por el KEAT (ONCE Griega) para el proyecto (están en inglés):

Aquí teneis unos videotutoriales sobre diseño e impresión 3D con FreeCAD elaborados por BQ (en inglés):

Dos cursos disponibles en el Moodle de la plataforma Scientix, a los que se puede acceder como invitado (en inglés):

Tutorial en tres pasos sobre como diseñar de forma rápida y sencilla el plano de una planta en 3D:

Y, para terminar, una unidad didáctica sobre impresión 3D con metodología aprendizaje-servicio orientada a la inclusión de personas con discapacidad visual adaptada al curículum de la FP Básica (aunque es adaptable a currículums de otros títulos):

 

ApS: Diseñando planos de metro táctiles en la FP Básica

Ya he hablado con anterioridad en este blog del Aprendizaje Servicio a.k.a. Aprendizaje basado en la Comunidad, como un enfoque pedagógico que integra el currículum con la rlealización de servicios de utilidad para la sociedad.

Con este enfoque metodológico, los alumnos, no sólo reciben su formación académica (con la consiguiente evaluación de sus aprendizajes), sinó que se implican directamente en los procesos sociales de su entorno y trabajan para dar una solución a problemáticas del mundo real a través de los contenidos, procedimientos  y actitudes del currículum. 

Durante el presente curso académico he participado con un grupo de alumnos en el proyecto Erasmus+ PRINT3D aplicando este enfoque. Nuestro objetivo era aprender a usar una tecnología novedosa, como es la impresión 3D, diseñando e imprimiendo planos de metro táctiles que pudiesen ser útiles para los alumnos invidentes del centro que usan este medio de transporte.

Con esta entrada pretendo compartir la forma en la que he participado en el proyecto, de qué manera he aplicado la metodología aprendizaje servicio (ApS), qué dificultades he (hemos) encontrado por el camino y cuál ha sido el resultado. La finalidad es, por tanto, compartir mi experiencia con la idea de inspirar y/o animar a otros a utilizar la impresión 3D en el aula para involucrar a los alumnos en la mejora de su entorno.

¿Te interesa saber cómo puedes utilizar una impresora 3D para fomentar la inclusión? En ese caso, sigue leyendo.

El proyecto Erasmus+ PRINT3D

El proyecto Erasmus+ PRINT3D surge de una premisa bastante habitual: al principio de cada curso académico, los centros educativos suelen repartir una serie de documentación al nuevo alumnado. Documentación, generalmente en papel, que incluye horarios, normas, listados de libros, profesores y unos planos de centro. Toda esta información se traduce a braille para un alumno con discapacidad visual. Toda, excepto los planos.

PRINT3D
Logo del proyecto Erasmus+ PRINT3D

Hoy en día, existen muchas maneras de pasar texto a braille (o a audio), gracias a tecnologías ya bastante maduras como el OCR. Pero no existe ninguna tecnología que pase automáticamente un plano de un edificio a un formato táctil para que pueda ser interpretado por una persona  invidente. Eso hay que hacerlo manualmente.

Pero, ¿y si fuesen los mismos alumnos del centro los que elaborasen estos planos, utilizando la tecnología de impresión 3D? Para ello, los alumnos deberían aprender a utilizar software de diseño, a manipular una impresora 3D y, no menos importante, a entender de qué manera accede una persona invidente a la información. En definitiva, aprender a utilizar una tecnología usándola para el beneficio de sus compañeros.

Este último párrafo ejemplifica perfectamente el tipo de aprendizaje que puede articularse mediante el enfoque ApS.

Aquí es donde entra el proyecto Erasmus+ PRINT3D, pues su objetivo es, precisamente, combinar el uso de la impresión 3D en las aulas para el beneficio de la comunidad de personas con discapacidad visual a través de la metodología ApS.

Gráfico con tres áreas superpuestas con los textos 3D Printing in Schools, Service Learning y Visual Impairment. En la zona en la que coinciden los tres círculos pone PRINT3D
Los ejes fundamentales del proyecto Print3D

En el proyecto participan empresas y asociaciones relacionados con la impresión 3D y/o la inclusión de personas invidentes. Los participantes proceden de diversos países de la geografía europea como Islandia, Grecia, Letonia y España. También participan centros educativos de Grecia y España, cuya función es implementar el proyecto en las aulas.

Estos centros participantes representan varios niveles educativos, que van desde primaria hasta ciclos formativos. Por tanto, la implementación del proyecto varía en función del perfil del alumnado participante. Así, aunque el objetivo es el mismo, la metodología, contenidos y temporalización puede variar de una  a otra.

En esta entrada, os voy a hablar de la implementación de uno de los centros educativos españoles que son partners del proyecto .

Perfil del alumnado

La implementación del proyecto que se comenta en esta entrada se ha llevado a cabo con un grupo de alumnos de primer curso de Formación Profesional Básica de Informática y Comunicaciones. Para quien no esté familiarizado con la FP Básica, se trata de un programa orientado a los alumnos que no han acabado la educación secundaria obligatoria, con el objetivo de evitar el abandono escolar. Los programas de FP Básica combinan, en dos cursos académicos, asignaturas por ámbitos para trabajar los contenidos de la ESO y módulos técnicos vinculados a un perfil profesional. Los alumnos, además, realizan un módulo de formación en centros de trabajo en el que pasan un periodo de 2 meses realizando prácticas en una empresa. Al final de los estudios, los alumnos reciben un título de FP Básica (nivel 1 del Marco Europeo de las Cualificaciones), que es equivalente a todos los efectos con el de la ESO.

En el caso de la FP Básica de Informática y Comunicaciones, las prácticas en empresa se dividen en dos periodos de un mes al final de cada curso académico.

Respecto el perfil del alumnado, se trata de un grupo heterogéneo con edades comprendidas entre los 15 y 17 años, provenientes de diferentes centros educativos y a los que se les ha recomendado la vía de la FP Básica debido a las pocas perspectivas de obtener el título de ESO. En el grupo hay un total de 18 alumnos.

En ese sentido, las motivaciones de los alumnos en el grupo son muy diversas: cada alumno tiene un trasfondo personal, social y cultural completamente diferente, conformando un grupo muy heterogéneo, donde lo único que tienen en común es un pasado de fracaso escolar.

Por esta complejidad grupal, suele ser un verdadero reto para el docente encontrar maneras con las que motivar de forma efectiva a todo el grupo, con lo que la convivencia en el aula, en ocasiones, puede resultar complicada, tanto para los alumnos como para los profesores.

En cualquier caso, las características del grupo lo hacen especialmente interesante para plantear un proyecto basado en el enfoque ApS, pues hacerlos partícipes de un proceso de mejora de su entorno en el que ellos van a ser los protagonistas, puede suponer un catalizador motivacional, así como algo que mejore no solo el ambiente en el aula, sino su implicación y capacidad de esfuerzo.  Se podría decir que actuaría como un revulsivo hacia los contenidos del curriculum.

Objetivos

Volviendo al planteamiento del proyecto Erasmus+ PRINT3D, tenemos alumnos con discapacidad visual en el centro que no disponen de un plano táctil para conocer los espacios del instituto. Construir esos planos ha de ser un objetivo de la implementación del proyecto. Y, en efecto, lo es, pero van a ser los alumnos de 2º de FPB los que lo implementen, por tanto no voy a hablar aquí de eso.

Pero no todo se ha de quedar en los planos del centro. Si lo pensamos, el proyecto es extensible a cualquier instalación o servicio del entorno del instituto que los alumnos con discapacidad visual utilicen a diario. Y ahí es donde entran las líneas del metro: muchos alumnos utilizan este medio de transporte a diario para venir al instituto, incluidos los que tienen discapacidad visual.

El metro de la ciudad de Valencia tiene un total de 9 líneas, contando también las las líneas de tranvía. Es más, algunas de estas líneas hacen las funciones de un tren de cercanías, llegando a localidades ubicadas en otras comarcas. Actualmente no existe ninguna versión del plano de metro táctil que ayude a las personas invidentes a guiarse a través de este medio de transporte.

Plano con las 9 líneas dle metro de valencia, cada una de un color diferente.
Plano de líneas del metro de Valencia.

Parece que nos hemos topado con una barrera de inclusión que puede ser resuelta con unas cuantas horas de diseño y unas pocas más de impesión 3D. Y así es como construir planos táctiles de las líneas de metro de Valencia se convierte en el objetivo del proyecto ApS para el grupo de 1º de FP Básica de Informática y Comunicaciones.

Pasos previos

Antes de plantear el proyecto en el aula, fue necesaria la documentación sobre como elaborar planos táctiles adaptados para invidentes. Esto era necesario tanto para el proyecto de planos de centro como para los planos de metro.

Durante el curso anterior al de la implementación en el aula, en el que ya se estaba participando en el proyecto,  se había estado haciendo pruebas  con la impresora 3D que teníamos. La referencia principal para el diseño era un manual de requisitos técnicos para la confección de planos accesibles elaborado por la ONCE.

De esas pruebas salió un plano de la planta baja del instituto en el que se invirtieron un montón de horas, tanto en diseño como en impresión. Se trabajó directamente sobre Freecad. Y fueron necesarias largas horas de  impresión hasta que salió bien (principalmente por culpa del warping).

El plano, con un tamaño similar al de un folio A3, tenía que ser impreso troceado en 4 partes y en vertical para que cupiese en la base de impresión. El proceso de impresión duraba más de 30 horas.

Foto de un plano táctil de la planta baja del centro.
Detalle del texto en bajorelieve y en braille del plano de la primera planta del centro.

Uno de los principales retos en este punto era simplificar el proceso para poder trasladar la actividad al aula con una temporalización razonable, que permitiese conseguir los objetivos del proyecto ApS y trabajar el resto de contenidos de la etapa. La solución pasaba por usar la conversión de 2D a 3D, y una herramienta de diseño más sencilla, como Tinkercad, tal y como ya expliqué en esta otra entrada.

También en ese punto empezamos a estudiar cómo se podrían hacer las líneas de metro. Ante la experiencia con el plano del centro, se optó por intentar reducir el tiempo de impresión cambiando la base del diseño por un cartón pluma, imprimiendo sólo aquello que tenía que sobresalir. Así, si la impresión fallaba, no era tras 30h de impresión, sino tras 1 o 2 horas y, al no usar diseños tan sólidos la incidencia de warping era más baja. Así que decidimos sustituir la base por cartón pluma y, gracias a eso, en pocas horas, conseguimos tener un primer prototipo del plano.

Imagen de un cartón pluma con una línea y varias etiquetas en braille impresas en 3D pegadas a él.
Detalle del primer prototipo de linea de metro

Estos primeros prototipos fueron diseñados también (y sobre todo) teniendo en cuenta las opiniones y el feedback proporcionado de las entidades expertas en inclusión de personas invidentes participantes en el proyecto. Hay que tener en cuenta que entre los participantes en el proyecto en el centro, todos del Departamento de Informática, no existía nadie que tuviese experiencia previa en el diseño de materiales táctiles para personas con discapacidad visual. Tanto el Redzi mani letón, como el KEAT griego hicieron aportaciones muy interesantes a los diseños que, posteriormente se trasladaron al proyecto en el aula.

Llegados a este punto, ya teníamos clara la idea de lo que se iba a trabajar en el aula durante el curso siguiente. Ahora faltaba decidir cómo y con qué recursos.

Fue más o menos por esta época cuando nuestra impresora 3D dejó de funcionar.

Recursos

Aunque las impresoras 3D están cada vez más presentes en todos los ámbitos, lo cierto es que todavía se requiere un cierto conocimiento de su funcionamiento para poder utilizarlas y mantenerlas. También se requiere tiempo para documentarse en Internet sobre cómo solucionar los diferentes problemas que van apareciendo. Mucho tiempo.

Cuando nos involucramos en el proyecto Erasmus+ PRINT3D, ya teníamos en el centro una BQ Hephestos 2 que habíamos montado nosotros y con la que estuvimos imprimiendo todas las pruebas iniciales. Sin embargo, antes de empezar la implementación del proyecto en el aula, la impresora dejó de funcionar. Entre final del curso anterior a la implementación y principio del mismo curso estuvimos tratando de encontrar, sin éxito, el problema.

No era la primera vez que la impresora fallaba y ya habíamos resuelto otros fallos «poco evidentes», de los que no encuentras directamente la solución en un video de Youtube. Sin embargo, esta vez, no fuimos capaces de encontrar la causa del mal funcionamiento (el extrusor se va para arriba, como si el sensor inductivo siempre detectase algo). De hecho,  a día de hoy seguimos tratando de repararla.

Por esa razón, y debido al inicio de la implementación en el aula, en la que se tendría que imprimir y mucho, decidimos adquirir dos impresoras de las que ya vienen montadas (para no retrasar más el inicio de las impresiones): la BQ Witbox 2 y la Witbox Go!.

La Witbox Go es una impresora pequeña y portable, ideal para llevar la impresión al aula. Por su tamaño, era la solución ideal para imprimir etiquetas en braille o pequeños símbolos. La Witbox 2, por otro lado, es grande y pesada como un horno doméstico. Poco portable, aunque ideal para las impresiones de más envergadura.

Ideamos un pequeño carrito de impresión que nos permitía llevar las impresoras al aula. De ese modo, los alumnos podrían manipularlas y ver su funcionamiento.

Foto de una mesa con ruedas y sobre ella las dos impresoras.
El 3D-Mobile, capaz de llevar la magia de la impresión 3D a cualquier aula en la que se la necesite

En lo que respecta al software, había que decidir con qué programas los alumnos iban a realizar los diseños, ya que tenían que aprender a usarlos previamente. Como se ha comentado anteriormente, hasta la fecha habíamos trabajado con Freecad para hacer los diferentes diseños. Freecad es una herramienta libre, gratuita y muy completa para el diseño en 2D y 3D. Sin embargo, también es una herramienta compleja y que tiene una curva de aprendizaje poco pronunciada.

Por esa razón y debido a que los diseños que se tenían que realizar para el proyecto (planos y líneas de metro en 3D) eran bastante sencillos, optamos por usar una herramienta mucho más fácil como es Tinkercad. Tinkercad es una herramienta gratuita que, además, funciona directamente desde la web, por lo que no es necesario instalar ningún programa y se pueden acceder a los proyectos literalmente desde cualquier lugar.

Llegados a este punto, sólo necesitábamos un método efectivo y sencillo para pasar texto a braille. En un principio la gente de BQ , empresa fabricante de impresoras 3D que también participa en el proyecto, nos facilitó un script en python que hacía la conversión. Sin embargo, tras probarlo un poco descubrimos que algunas cosas, como los números de varias cifras, no estaban bien codificados. Afortunadamente, en una de las reuniones del proyecto, una de las compañeras del proyecto, profesora del 3rd Junior High school of Kifissia (Grecia) nos recomendó una web con un generador de etiquetas braille en 3D, que la gente del KEAT griego (el equivalente a la ONCE en Grecia, que también es partner del proyecto) también nos había mencionado. Así es como llegamos a Touchsee.me, que se convertiría en la última pieza que nos faltaba para poner en marcha nuestra implementación.

La implementación en el aula

Llegados a este punto, se había diseñado una unidad didáctica sobre impresión 3D. La unidad  partiría con la presentación de los conceptos relacionados con la impresión 3D para, finalmente, utilizar esos aprendizajes en el proyecto de las líneas de metro.

 

Para la implementación en el grupo de un proyecto de esta envergadura, se decidió dedicar 3 sesiones de clase a la semana durante un trimestre para trabajar esta unidad didáctica. Las sesiones semanales se impartían de forma seguida, de manera que daba tiempo a diseñar y hacer pruebas de impresión durante las mismas.

La unidad didáctica arrancó con el curso. Se dedicaron las primeras sesiones a presentar los conceptos de impresión 3D. Durante las primeras clases, se presentaron los componentes de una impresora, los materiales utilizados y el modo de funcionamiento.  Posteriormente, los alumnos crearon una cuenta de Tinkercad y se propusieron actividades individuales de complejidad creciente, en la que se iban incorporando las diferentes herramientas de la aplicación. De ese modo, los alumnos se familizarizaron con los recursos a utilizar.

Cabe destacar el uso de una de las funcionalidades de Tinkercad, que es la posibilidad de crear un grupo de moderación, a través del cual, el profesor puede acceder a los diseños de los alumnos.

Durante esta fase de la unidad, los alumnos hicieron actividades individuales en las que diseñaron una pieza personalizada para un juego de mesa, o el diseño de un soporte con su nombre para identificarse en el aula.

El interés de los alumnos hacia la herramienta era muy elevado, hasta el punto que un alumno  empezó el diseño de una ficha del popular conecta-4 para así acabar pronto… y terminó diseñando todas las fichas y el soporte. ¡Espectacular!

Posteriormente, se propusieron actividades de diseño en 2D, pues puede ser de gran utilidad para trasladar planos a 3D. En este caso, se utilizó la herramienta de diseño vectorial Libre Office Draw. Los alumnos aprendieron a realizar diseños 2D mediante el calco de logotipos comerciales conocidos, mediante trazo de líneas béizer o usando operaciones con formas geométricas. Luego, esos diseños eran importados a Tinkercad para darles volumen.

Captura de pantalla con el logotipo de Twitter en 3D
Algunos consiguieron resultados realmente sorprendentes con la combinación de formas geométricas en 2D. Este logo de Twitter está hecho sólo sumando y restando circunferencias.

Cabe mencionar, de nuevo, la enorme motivación de los alumnos ante las actividades creativas. Además, los mejores diseños de las actividades se imprimían para ir haciendo pruebas con las nuevas impresoras, lo cual le daba más aliciente al trabajo realizado en el aula.

Tras estas primeras actividades, los alumnos ya tenían las nociones suficientes sobre impresión y diseño 3D para resolver un problema real. Aquí es donde se les comentó una problemática que tenía una alumna del instituto para la que, quizá, ellos podían aportar una solución.

El proyecto ApS

Cuando planteé a los alumnos la posibilidad de realizar un proyecto de aplicación de la tecnología de impresión que habíamos visto en clase para crear versiones de los planos de líneas de metro táctiles, se quedaron perplejos. Una cosa era diseñar llaveros con logotipos conocidos y otra recodificar un plano para que pudiese ser leído de forma táctil. Estoy de acuerdo con ellos en que no es una tarea trivial (y las múltiples pruebas realizadas y comentadas anteriormente en este texto dan fe de ello), pero tampoco es imposible, como más de uno definió el proyecto cuando lo presenté.

Ellos entendían perfectamente la problemática de la alumna invidente que venía todos los días en metro al instituto, pese a que no había carteles adaptados para personas con discapacidad visual. Pero verse con la responsabilidad de utilizar los conocimientos adquiridos para hacer algo que cambiase esa situación era otra cosa.

Pero para eso estás en la FP, ¿no?

Así que nos pusimos a ello. Quizás, en este momento, yo era la persona más convencida respecto al proyecto. Por suerte, a medida que el trabajo realizado fue dando frutos, la gran mayoría de alumnos se sumaron a ese optimismo.

Dada la complejidad del proyecto, se dividió en varias fases que comento a continuación.

Fase 1: Investigación

En primer lugar, era necesario que los alumnos se familiarizasen con la discapacidad visual y  sobre cómo se elaboran recursos para invidentes, pues es lo que se iba  a hacer. En esta fase, se aprovechó la formación recibida por el KEAT, dedicando una sesión a hablar sobre la discapacidad visual y sobre las acciones necesarias para adaptar lugares y mapas a personas invidentes. Se mostraron ejemplos de planos táctiles y se hizo una reflexión en gran grupo sobre las barreras que una persona invidente encontraría en el aula. Finalizamos la sesión, haciendo una simulación de guiado de personas invidentes.

Los alumnos fueron bastante receptivos a la sesión, pues era una temática con la que no estaban familiarizados,ero sobre la que tenían curiosidad.

Fase 2: Preparación

Había llegado el momento de decidir de qué manera se puede convertir un plano de metro a táctil. A partir de la información que yo había recopilado previamente en reuniones en el KEAT y con la experiencia de las pruebas realizadas en la impresora 3D, dedicamos una sesión a definir los requisitos de los objetos que teníamos que diseñar.

Los alumnos iban proponiendo cosas que se anotaban en la pizarra y se iban discutiendo. No todos los alumnos participaron activamente en esta actividad pero, en general, fue bastante enriquecedora y en ella se definieron las que serían (casi sin modificaciones posteriores) las características de los diseños a realizar.

Era importante llegar a un consenso sobre los diseños, ya que todas las líneas debían de diseñarse siguiendo los mismos patrones para que fuesen consistentes entre ellas y, por tanto, fáciles de leer para una persona invidente.

Estas fueron las decisiones tomadas:

Diseño de paradas

  • Sería una línea recta de 30cm de largo, 0,3cm de ancho y 0,2cm de alto (en el caso de líneas largas, se podía ampliar a 40cm, en el caso de líneas muy cortas, reducir a 15cm).
  • Las paradas se representarían con formas de 0,6cm de radio y 0,4cm de alto.
  • Para diferenciar las paradas de las diferentes zonas tarifarias (Zonas A, B, C y D), se diseñarían unos símbolos que contendrán la letra correspondiente a la zona de la parada en braille. Este símbolo tendrá una forma que permita saber el sentido de la la lectura.
  • Se contaría el número de paradas de la línea y se distribuirían uniformemente a lo largo del trazado. Así,  si hay más paradas, estarán mas juntas y, si hay menos, más separadas.
  • Las paradas con transbordo(s), se diferenciarían haciendo un cilindro más grande (de 0,8cm de radio) y 0,3cm de alto

Diseño de la base:

  • La línea con las paradas iría sobre una base de 35 cm de largo (en caso de líneas largas o cortas, se adaptaría la longitud a éstas), 0,1cm de alto y 1,2cm de ancho. Esta base nos permitiría pegar el resultado de impresión sobre una superfície, por ejemplo de cartón pluma.

Nombres de las paradas:

  • Irían en braille, pegados a la derecha del símbolo de la parada.
  • En el caso de transbordo, a la izquierda de la parada se indicarían en braille las líneas a las que se puede cambiar.

Identificación de los transbordos:

  • Cada grupo crearía unas etiquetas en braille con el número de su línea (tantas como enlaces hubiesen a ella) para indicar los transbordos en los paneles de los otros grupos.

Además, era necesario tener un plano de líneas general, en el que, de forma táctil, se diferenciaran las diferentes paradas. Se decidió hacerlo usando líneas que calcasen el plano general de líneas y representando las paradas de cada línea con diferentes símbolos geométricos.

Al final de está sesión, los alumnos se pusieron a trabajar en el símbolo que representaría la parada. La idea era que se presentasen varias propuestas y, entre todos, se eligiese una que sería la utilizada en todos los diseños.

Captura de pantalla con el diseño del símbolo de parada
El diseño seleccionado era una especie de púa que apuntaba el sentido de la lectura.

Tras las sesión, se publicaron en el aula virtual las especificaciones de las líneas. También se subieron el diseño de las paradas y el logotipo de metro Valencia que un alumno había diseñado. Ya teníamos todo lo que necesitábamos para empezar a trabajar.

Fotografía con un ejemplo de impresión del logotipo de metro Valencia.
Primera impresión de prueba del logotipo de Metro Valencia

Fase 3: Acción

Para la realización de los 9 planos de línea de metro, se optó por hacer grupos de 2 alumnos, de manera que cada grupo trabajaría en una línea distinta (ideal, pues como se ha comentado, hay un total de 18 alumnos). Para la configuración de los grupos se trató de buscar afinidad entre los alumnos, tanto personal como a la hora de trabajar. Por tanto, no se dejó libertad a los alumnos para elegir a su compañero/a. Se asignaron los números de línea que haría cada grupo por sorteo, pues todos querían la línea más corta.

Cada grupo se debía encargar de diseñar la línea asignada de acuerdo a los requisitos consensuados  con el Tinkercad y de generar las etiquetas en braille con los nombres de todas las paradas con Touchsee.me. También diseñarían en Tinkercad un cartel con el nombre de su línea y logo de metro Valencia.

Una vez finalizados los diseños, tendrían que prepararlos para la impresión en la Witbox 2 con Cura (programa para preparar el gcode, el archivo de impresión que reconoce la impresora). Cuando era necesario trocear el diseño porque no cabía en la superfície de impresión, se hacía con la versión educativa de Netfabb, un programa que permite trocear diseños 3D. Cada línea se imprimiría en PLA del color de la línea en los planos de metroValencia (o el más parecido).

Fotografía de los alumnos trabajando en los ordenadores
Silencio: Diseño de planos táctiles en progreso

El trabajo de diseño concluyó en un par de sesiones, pero la impresión se alargó bastante más de lo que se había previsto. Y era un paso imprescindible para poder montar los planos.

Hay que tener en cuenta que las impresoras 3D no tienen una cola de impresión. Hay que preparar cada impresión individualmente: limpiar la base, cambiar el filamento al color adecuado, preparar la base para optimizar la adherencia (pulverizar laca) y poner la impresión a trabajar. También hay que tener en cuenta que las impresiones 3D suelen llevar su tiempo.

Fotografía de alumnos pulverizando laca sobre la base de impresión
Alumnos preparando una impresión o «Me encanta el olor a laca por las mañanas»

Si tenemos en cuenta que cada grupo tenía que hacer entre 3 y 4 diseños, a saber:

  • Uno para las línea (al trocearse cabía toda en una impresión)
  • Uno o dos para las etiquetas en braille de los nombres de paradas.
  • Una para la placa con el nombre de la línea
  • Una para los transbordos

Nos salían unas 45 impresiones. A un promedio de 4h por impresión nos dabam unas 180 horas: 8 días si la impresión fuera ininterrumpida, que como he expuesto antes, no lo es. Y eso si todo va bien a la primera que, desgraciadamente, tampoco suele ser el caso.

Pues bien, con esta situación, durante la sesión de clase, un grupo ponía un diseño a imprimir a primera hora y a final de la mañana estaba terminado. Los otros grupos me enviaba sus diseños y el resto de días de la semana, cuando la impresora estaba en el departamento de informática (¿os acordáis del 3D-mobile?), se iban poniendo a imprimir en los diferentes huecos que dejaba la jornada (aquí he de agradecer la inestimable colaboración de compañeros del departamento). Y así, hasta la siguiente sesión de clase, a la que se llevaban los resultados para analizarlos.

Fotografía de la impresión de un diseño de línea.
Una prueba de impresión de la línea 8: Nótese el leve levantamiento de la parte izquierda que hacía necesaria la repetición del proceso.

Como digo, esto retrasó bastante la implementación. Por si fuese poco, tuvimos varios parones debido a pequeñas averías. Durante el proceso, tuvimos que sustituir 2 sensores inductivos y un extrusor. Por tanto, hay que sumar a las operaciones anteriores el tiempo de localización de la avería, reparación o adquisición de la pieza de repuesto para su sustitución y puesta en marcha. La parte positiva de estas contingencias es que los alumnos colaboraron en algunas de estas reparaciones, aprendiendo a sustituir piezas de una impresora.

Fotografía de un alumno manipulando el extrusor de la impresora mientras los demás miran
Un alumno sustituye un sensor inductivo defectusoso (no se encendía el led que permite calibrarlo). Los demás hacen cola para imprimir.

De esta manera, poco a poco, se fueron completando todas las impresiones.  Los alumnos en las sesiones de clase iban preparando las impresiones, recortándolas y lijándolas, para el siguiente paso (el pegado en el cartón pluma), o retocando algún diseño para volverlo a imprimir.

Fotografía de un alumno lijando una impresión
Un alumno recorta y lija etiquetas en braille de la línea 3.

Una de las cosas que detectamos en esta etapa fue que la impresión del braille queda mucho mejor si se imprime en vertical que si se hace en horizontal. Ambos se pueden leer, pero el tacto del impreso en vertical es mucho más suave y, por tanto, más agradable para la lectura.

Fotografía en la que se ven etiquetas en braille impresas en horizontal y en vertical
Braille: impresión horizontal (línea 3) vs vertical (línea 8)

Evidentemente, también se generaban tiempos muertos cuando algunos grupos estaban pendientes de alguna impresión. En esos casos, los alumnos podían trabajar en la pieza que faltaba: el plano general de líneas.

En varias ocasiones, desde el KEAT nos habían comentado la importancia de tener un plano general táctil que ayudase a contextualizar los planos individuales. Un plano que permitiese hacerse una idea generar del mapa del metro de Valencia.

Este diseño era mucho más ambicioso, pues requería un diseño mucho más complejo. Se optó por usar la técnica de conversión de 2D a 3D que ya se había empleado con anterioridad. La idea era calcar el plano de metro con una herramienta de diseño 2D (en nuestro caso el LibreOffice Draw) y luego extruir el resultado con el Tinkercad.

Pero no era tan fácil, porque cada línea debía de tener una textura diferente para que pudiese ser seguida de forma táctil sin confundirse con las otras. El tema de las texturas era más delicado y, francamente, no encontramos una manera sencilla de hacerlo en Tinkercad. Por ello decidimos utilizar diferentes símbolos geométricos para marcar el trazado de las paradas y guiar de esa manera al tacto. Estos símbolos se añadían al calco en 2D, para luego extruir el resultado conjunto.

Así, cada alumno tenía la asignación individual de ir realizando ese trabajo: calcar el plano general, poniendo diferentes símbolos geométricos donde van las paradas. De todos los trabajos entregados, uno sería el que se convertiría a 3D y se imprimiría como el plano general. Ese era el trabajo que podían adelantar en los tiempos muertos ya que, al ser un diseño de bastante envergadura, era mejor ir haciéndolo poco a poco.

Fotografía de alumnos trabajando con el LibreOffice Draw calcando el plano general.
Un alumno preparándose para calcar en LibreOffice Draw el plano general

En un principio se pensó en hacer las impresiones  de las líneas utilizando varios colores para favorecer el contraste: la base iria en el color de la línea en el plano de metro Valencia, el trazado sería de color negro y las paradas, de nuevo, en el color de la línea. Para hacer eso, hay que ir parando la impresión y cambiando el filamento a medida que se imprimen las capas. Sin embargo, cuando empezamos a imprimir, descartamos ese procedimiento, ya que implicaba alargar mucho el proceso de impresión de cada pieza. Como solución alternativa, se optó por conseguir el mismo efecto de una forma mucho más rápida: utilizando un rotulador permanente opaco, de los que se utilizan para escribir en vidrio. Nosotros utilizamos los rotuladores Edding 751.

Así, tras pegar las piezas impresas en el cartón pluma, se repasaban con rotulador las partes que se querían resaltar en otro color, de forma que sólo se tenía que dedicar un poco más de tiempo al final del proceso, sin alterar el tiempo de impresión ni retrasar más la cola de trabajos.

Fotografía de un alumno repasando una línea impresa en 3D con un rotulador
Impresión 3D multicolor de batalla

Como era de esperar, algunos grupos terminaron antes sus planos (no es lo mismo hacer una línea con 4 paradas que una de 40) y pronto celebramos la finalización de la línea 8, la línea más corta de metro Valencia.

Fotografía de la línea de metro táctil finalizada.
La primera línea finalizada: de lo «imposible» a lo tangible.

Llegados a este punto, con los primeros prototipos operativos, había llegado el momento de validar los criterios adoptados para el diseño. Por eso, recurrimos a Isabel y a Pablo, dos personas invidentes, que accedieron a venir un dia a clase a probar los diseños finalizados y darnos su opinión.

La sesión con Isabel y Pablo fue muy enriquecedora a muchos niveles. En primer lugar, porque los alumnos vieron como dos personas ciegas, que eran los destinatarios del proyecto en el que habían estado implicados ya durante varios meses, probaban el resultado de su trabajo. Y además, lo daban por bueno. Por otro lado, por las recomendaciones y comentarios que hicieron: no es lo mismo explicar lo que vas a hacer a alguien que entienda sobre la elaboración de mapas adaptados para invidentes (como habíamos estado haciendo hasta ese momento con el KEAT griego) que, directamente, darle un prototipo a un usuario potencial y que lo pruebe.

Fotografía de Isabel y Pablo probando los planos en el aula.
Isabel y Pablo, planificando su viaje en la línea 8.

Pero además de eso, la visita de Isabel y Pablo sirvió para resolver un problema con el que nos habíamos encontrado en las últimas sesiones: ordenar las etiquetas de las paradas.

Las etiquetas en braille, en el ordenador, se identificaban por el nombre del archivo.  Pero luego, se ponían todas juntas en el Cura y, aunque se pedía que anotasen en un papel la posición en que las habían puesto para imprimirlas todas juntas para luego poder identificarlas una vez impresas, el tiempo pasado entre el diseño y la recepción del objeto impreso, al parecer, era directamente proporcional a la probabilidad de que ese papel se hubiese perdido (los que hayáis dado clase en FP Básica, sabréis de qué os estoy hablando). El caso es que la mayoría de grupos estaban comparando una por una las etiquetas impresas con todos los archivos de etiquetas para ver cuál era cuál. ¿He comentado ya que hay líneas con 40 paradas? Una locura.

Captura de pantalla del Cura con algunas etiquetas en braille para imprimir.
Preparando varias etiquetas en braille en el Cura para imprimir. Pero, ¿Cuál es cuál?

Por suerte, Isabel y Pablo tuvieron tiempo el día de su visita para explicarnos cómo se lee el braille y, tras eso, bastó con imprimir una chuleta con el código braille para identificar rápidamente todas las paradas simplemente leyendo las tres primeras letras.

Como decía, también nos hicieron algunas sugerencias para mejorar los diseños, para hacerlos más legibles. Una de ellas era cambiar la forma en la que se indicaban las paradas con transbordo: originalmente lo hacíamos poniendo un cilindro de menor altura alrededor del símbolo de la parada. Ellos nos sugirieron un diseño que fuese más fácil de identificar de forma táctil, por ejemplo, un cilindro que tiene un hueco con la forma del símbolo de la parada.

Fotografía con una línea impresa.
El diseño original de las paradas con transbordo.

Así que modificamos todos las líneas que aún no estaban impresas para adoptar este cambio.

Fotografía con otra línea impresa.
El diseño de una parada con transbordo tras adoptar el cambio.

Otra de las cosas que nos transmitieron fue la importancia de respetar las distancias entre etiquetas braille para facilitar la lectura y que tratásemos de evitar los cambios de relieve muy bruscos: con 1 mm de diferencia es más que suficiente para una persona invidente para detectar un cambio de forma táctil. Más que eso, por norma general, entorpece la lectura.

Y así, tras la inyección de moral provocada por su visita, nos pusimos manos a la obra para terminar el resto de líneas. Durante esas sesiones, el aula se convirtió en un taller de elaboración de planos accesibles.

El pase de diapositivas requiere JavaScript.

 

Y finalmente, conseguimos terminar todas las líneas. Había costado, pero valía la pena: al fín y al cabo, habíamos creado la primera versión táctil de los planos del metro de Valencia.

Fotografía con casi todos los planos de metro táctiles elaborados.
Es difícil cuantificar la cantidad de esfuerzo, trabajo y paciencia que hay tras esta fotografía.

En paralelo, se había estado trabajando en el diseño del plano general a partir de la combinación de varios de los diseños realizados por los alumnos. En este caso, además de las diferentes líneas con las diferentes texturas, se habían añadido las diferentes formas tarifarias de forma escalonada, utilizando distancias mínimas entre escalones, tal y como nos habían comentado Isabel y Pablo.

Fotografía del plano general táctil elaborado junto al plano en papel.
El plano general del metro: antes y después.

Fase 4: Reflexión

Una vez terminados los planos, llegaba el momento de reflexionar sobre lo que se había aprendido y lo que se había conseguido. Sobre lo segundo, los objetivos marcados al principio del proyecto se habían conseguido, pues se habían construido todos los planos. Sin embargo, faltaba por ver si esos planos eran de utilidad para una persona invidente.

¿Y quien mejor para comprobarlo que la alumna que lo había inspirado todo?

Bea, que así se llama, estaba al corriente de la realización del proyecto porque ya le había hablado de él en varias ocasiones. De hecho, ella se había ofrecido a probarlo una vez estuviese finalizado. Y había llegado ese momento.

Así, montamos todos los planos de metro en el aula y nos preparamos para recibir a Bea. Cuando vino, le explicamos el funcionamiento de los planos de metro y ella hizo el resto: primero estuvo comprobando la ruta que seguía ella y que sabía de memoria. Posteriormente, le propusimos una ruta diferente para la que era necesario realizar un transbordo y pudo trazarla sin problema.

Fotografía de Bea leyendo un plano táctil
Bea recorriendo de forma táctil la línea

La visita de Bea fue muy positiva para el grupo en muchos sentidos, sobretodo en lo que respecta al hecho de que una compañera, otra alumna del centro, validara el funcionamiento y la utilidad del trabajo realizado. Quizás, hasta ese momento, no habían entendido la verdadera magnitud y alcance del proyecto realizado: no se trataba de un medio para obtener una calificación, sino de promover un cambio.

Después de eso, resultaba interesante saber la opinión de los alumnos sobre el trabajo realizado y se les pidió que, de forma individual, respondieran una serie de preguntas a modo de reflexión. Eran preguntas generales y abiertas, que se centraban en dos aspectos: su sensibilización hacia las personas con discapacidad visual y lo que han aprendido sobre impresión 3D tras la realización del proyecto.

Las respuestas, todas ellas muy escuetas, mostraban que a los alumnos les había motivado mucho la actividad, aunque se quejaban de la dificultades encontradas, especialmente en la fase del montaje final (las manualidades). También opinaban, mayoritariamente, que a la impresión 3D todavía le faltaba algo de madurez (curiosamente, ninguno se pronunciaba directamente sobre si consideraba que había aprendido o no a manejarse con una impresora 3D). Sobre la sensibilización hacia las personas ciegas, la mayoría de los comentarios se centraban en subrayar lo mucho que les había llamado la atención la gran cantidad de recursos con los que contaban los miembros de este colectivo, tanto físicos (gadgets) como personales.

Fase 5: Exposición

La difusión del proyecto era fundamental desde el principio y lo sigue siendo una vez acabado. Por un lado, para mantener la motivación en el alumnado y fomentar un estado de realización, de que se está trabajando en algo significativo. Por otro lado, para compartir la experiencia con otras personas, para inspirar a otros centros educativos que también tienen una impresora 3D y no saben qué hacer con ella, para animar a otros grupos de alumnos a aprender ayudando a adaptar su entorno para las personas con discapacidad visual (y esta entrada también es una buena mestra de ello).

Por esa razón, desde el primer momento, se fueron publicando en redes sociales los avances (y a veces, también los obstáculos encontrados). Estas publicaciones se difundían a través de los partners internacionales del proyecto, consiguiendo así una repercusión internacional. Por ello, las publicaciones se hacían en inglés, situación que se aprovechó para coordinar las horas de impresión 3D con la clase de inglés: al final de la sesión, dedicábamos 20 minutos a redactar los tweets sobre lo que se había hecho esa semana que, posteriormente, eran corregidos en la clase de inglés.

También se hicieron campañas para promocionar la iniciativa dentro del centro educativo: se montó un estand en la entrada con pruebas de impresión y carteles explicativos del proyecto. Además, nos coordinamos con los alumnos de Audio y vídeo de Bachillerato, que  nos hicieron un vídeo promocional sobre el proyecto que se difundió en redes sociales y que en la actualidad se reproduce, junto a otras piezas audiovisuales, en la TV que hay en el hall del instituto.

Además de todo esto, el suplement educativo Aula del diario Levante-EMV dedicó un extenso artículo a la implementación del proyecto Erasmus+ PRINT3D en los centros valencianos, en los que se mencionaba el trabajo realizado y se mostraban imágenes de los objetos creados por los alumnos.

Otra cosa que se hizo, una vez se hubieron finalizado  los planos, fue presentarlos a los responsables de la ONCE y de Ferrocarrils de la Generalitat Valenciana. Ambos se mostraron interesados en el proyecto y aportaron sus comentarios y sugerencias a los diseños.

Pero la exposición definitiva está por llegar, pues los trabajos se expondrán en la Conselleria de Educación en el marco de la jornada final del proyecto Erasmus+ PRINT3D, donde docentes, expertos en accesibilidad e impresión 3D podrán verlos y, sobretodo, tocarlos.

Reflexiones y mejoras

En este apartado, voy a hacer unas reflexiones personales sobre el proyecto y de proponer algunos aspectos de mejora de cara a futuras implementaciones.

La primera reflexión es que aún hay mucho trabajo por hacer para tener unos planos perfectos y accesibles para todo el mundo. Está claro que la manera en la que se ha realizado el proyecto ha requerido tomar muchas decisiones sobre la marcha, que no siempre han sido acertadas. Los diferentes validadores que ha tenido el proyecto en su desarrollo nos han proporcionado un feedback que, sin duda, haría replantear muchos aspectos en el diseño, impresión y montaje de los planos de metro si se volviesen a hacer desde cero. Aspectos como minimizar los relieves,utilizar diseños más sencillos para las paradas y transbordos, utilizar texto en mayúsculas en altorelieve y, en general, aplicar  las sugerencias aportadas por los expertos.

Otro aspecto que quizá habría que replantear es del del diseño separado de los componentes de las líneas: aunque se reduce el tiempo perdido en caso de fallo, es preferible un diseño que se imprima todo de un tirón, aunque tarde mucho más. Así, además, es más fácil para explotarla y distribuirla: si hay que hacer 10 copias, se ponen a imprimir y ya está (hasta se pueden enviar por correo), mientras que si es por piezas, es necesario montar una a una tras imprimir (y saber cómo hacerlo).

Lo mismo ocurre si se modifica una línea de metro, si está todo en un diseño, basta con actualizar ese diseño e imprimir y no es necesario hacer todo el montaje otra vez (recordemos que es algo de lo que más se han quejado los alumnos).

Se han comentado los retrasos ocasionados por los fallos en las impresoras. Teniendo en cuenta el uso exhaustivo que se ha hecho de ellas, es normal que fallen en algún momento y hoy por hoy, trabajar con impresión 3D no sólo se trata de diseñar, también hay que entender y saber reparar los problemas. No obstante, hay que contar con ello a la hora de programar para el aula y llevar siempre un plan B para el caso que los alumnos acaben de diseñar y o bien la impresora no funcione o esté colapsada.

Hay que tomarse las impresiones fallidas con filosofía.

Aunque la motivación del alumnado ha sido uno de los puntos fuertes del proyecto, no todos los alumnos se han implicado de igual manera. Mientras que una gran mayoría se ha esforzado por sacar adelante su parte del proyecto e, incluso, ha ayudado a otros grupos a avanzar, también ha habido algunos alumnos que han ido a mínimos. Esto ha descompensado algunos grupos, donde uno de los dos trabajaba y el otro no, provocando que algunos alumnos hayan completado prácticamente solos sus líneas de metro (con una mayor satisfacción final y  frustración adicional en el proceso). En este caso, ha sido fundamental la configuración de los grupos para garantizar la finalización de todos los planos.

Afortunadamente, esto no se ha producido de forma general y, a lo largo del proyecto se han producido muchos «momentos mágicos»: esos momentos en el que el profesor se pone al final de la clase y observa a todos, TODOS, los alumnos trabajando en silencio en sus respectivos proyectos. Esto en un grupo de FP Básica no suele ser muy habitual.

También ha sido algo problemático el elevado absentismo de determinados alumnos. Se trata de alumnos que llegaban a la clase 1 o 2 horas tarde, o faltaban algún día a toda la clase. Esto afectaba al rendimiento del grupo, a los que siempre le faltaba una parte del proyecto (la que estaba haciendo el compañero que no estaba). Utilizar un espacio compartido para almacenar los datos del grupo hubiera ayudado. Tomo nota.

Sin embargo, esto si se ha tenido en cuenta en la evaluación y, aunque el trabajo se hacía en grupo, la evaluación se hacía de forma individualizada, de acuerdo al trabajo realizado en cada sesión, siguiendo una rúbrica que media aspectos como el trabajo individual, el trabajo en equipo, la atención y el respeto por los demás.

Una de las cosa que considero que ha faltado es una mayor supervisión sobre los diseños de los alumnos, pues, tal y como nos indicó Bea, algunos nombres de paradas han llegado al plano con erratas o incorrecciones. Sin duda, es fruto de las prisas al repetir muchas veces el proceso de crear las etiquetas braille, cosa que han tenido que hacer varios grupos (porque el compañero que lo había hecho no estaba, se habían perdido los archivos, o se habían escrito en una codificación braille incorrecta). Son muchos archivos a supervisar, y aunque cada grupo debería responsabilizarse de hacer esa revisión, en ocasiones no se hacía. Quizá ha faltado una actividad de evaluación entre pares en la que los otros grupos validasen el trabajo de los demás. Pero habría que ver como se plantea para que el grupo supervisor, a su vez no sea también víctima de las prisas por acabar.

Con todo, la valoración global del proyecto ha sido muy positiva. Los alumnos, a pesar de las dificultades encontradas, han podido sacar adelante los proyectos asignados. Esto es de vital importancia, especialmente teniendo en cuenta el perfil de los alumnos, cuya baja autoestima y experiencia previa con el fracaso académico provoca un rechazo total a realizar esfuerzos. Sin embargo, en este caso, cumplir el objetivo del proyecto implicaba para ellos hacer de forma directa una aportación real (y tangible) a la sociedad, sentirse útiles, y eso, sin duda, es el mejor combustible para la autoestima.

Conclusiones

Con todo, considero que el proyecto ha sido un éxito. Los alumnos han aprendido las particularidades de la impresión 3D de la mejor manera que se puede hacer: diseñando e imprimiendo. Si as eso le sumamos que el objetivo no era aprobar una práctica, sino crear algo que tiene que estar bien hecho para que sea útil, se produce un cambio en el paradigma motivacional que maximiza el esfuerzo y el trabajo.

Además, para ello han tenido que empatizar con un colectivo con unas características determinadas, para ser capaces de adaptar sus diseños a las necesidades específicas. En ese sentido, el proyecto ha sido clave, tanto en la sensibilización del alumnado participante, como en la creación de dinámicas de inclusión para el alumnado beneficiario que, en cierta manera, también ha participado.

Pero sobre todo, y como ya se ha comentado anteriormente, creo que el proyecto ha sido muy positivo para el perfil de alumnado de la FP Básica. Gracias al proyecto, los alumnos han reforzado su autoestima. No hay nada como ayudar a los demás para sentirse útil. Pero también han madurado en su relación con su carrera académica, empezando a entrever el papel que pueden jugar como adultos en la sociedad, descubriendo lo que significa utilizar destrezas profesionales para marcar la diferencia. Les ha ayudado a acercarse al profesional que un día serán.

Sin duda, la participación en un proyecto ApS, en este caso enmarcado en el proyecto Erasmus+ PRINT3D, ha propiciado el que ha de ser el ideal de todo proceso de enseñanza-aprendizaje: que profesor y alumnos compartan objetivos, y avancen juntos en el proceso de alcanzarlos. En definitiva, el proyecto ha ubicado al proceso formativo en el contexto necesario para darle un significado. Le ha proporcionado una razón, un sentido.

Para concluir,  os dejo con un resumen de los puntos fuertes y retos principales de la experiencia:

Puntos fuertes

  • Gran motivación de los alumnos ante el uso de nuevas tecnologías.
  • Mejora de la autoestima al ofrecer un servicio a la sociedad.
  • Sensibilización del alumnado hacia un colectivo en riesgo de exclusión.
  • Participación activa en procesos de inclusión educativa.
  • No requiere grandes conocimientos técnicos y puede ser implementado por alumnos de ESO o FP Básica.
  • Se pueden establecer colaboraciones con  otras asignaturas y/o otros grupos.

Retos

  • Retrasos  debidos a la cola de impresión (las cosas no salen siempre a la primera)
  • La impresora puede dejar de funcionar y hay que invertir tiempo en repararla (y en el peor de los casos, puede ser necesario llevarla al servicio técnico, con lo que te quedas sin impresora por unas semanas)
  • Implementar mecanismos de supervisión efectivos para garantizar la calidad de los resultados
  • Necesidad de mecanismos de dinámica de grupo y organización complejos, debido al absetinsmo y las disrupciones en el aula, ya que no todos los alumnos están igual de motivados.

Cómo crear una encuesta de satisfacción del alumnado con Lime Survey

La autoevaluación del profesorado es un elemento clave  para conseguir programar procesos de enseñanza aprendizaje efectivos. El profesor ha de constatar qué decisiones han favorecido el aprendizaje y cuáles han de ser replantadas en otros términos, por ello, es imprescindible incorporar en las programaciones didácticas aspectos para la mejora continua a partir de la selección de una serie de indicadores y el diseño de instrumentos de evaluación para esos indicadores. De ese modo, se puede obtener una información muy valiosa de la propia implantación de la programación para su continuo perfeccionamiento.

Uno de esos indicadores podria ser la satisfacción del alumnado y el instrumento de evaluación, sería un cuestionario que, bien diseñado, midiese de forma anónima la valoración que dan los discentes al docente.

Podríamos discutir si los alumnos tienen el criterio suficiente para valorar el trabajo docente o si, como puede ocurrir en determinados niveles, tienen la madurez para tomarse una encuesta como esa en serio. O si los docentes podemos redactar una encuesta de forma imparcial y en la que hayan preguntas que midan todo lo que sea necesario medir. Pero en este texto no voy a entrar a eso. En realidad voy a partir de un supuesto mucho más ambicioso: imaginemos que es el centro educativo el que se quiere autoevaluar usando este sistema y decide que todo su alumnado responda un breve cuestionario sobre cada uno de sus profesores. Aunque esta práctica está muy extendida en centros de estudios universitarios, es bastante rara (al menos que yo sepa) en los institutos de secundaria y FP.

He de reconocer que estado haciendo algunas «pruebas de concepto» alrededor de ese supuesto, con el objetivo de estudiar las posibilidades y la viabilidad de implantar un sistema de encuestas de satisfacción del alumnado en un centro educativo. En esta entrada pretendo compartir la solución a la que he llegado y  comentar algunas  de las dificultades encontradas en el proceso. En el texto me voy a centrar en los aspectos relacionados con la creación de una infrastructura para pasar la encuesta. Discutir cómo diseñar las preguntas, la encuesta o los dilemas que se puedan originar de la respuesta del alumnado o del análisis de los resultados quedan fuera de los objetivos de esta reflexión.

Caso práctico

Para contextualizar la situación, partiré de un caso práctico genérico. Lo que se pretende es que todos los alumnos de un centro evalúen a todos sus profesores. Supongamos que se deciden una serie de preguntas que midan diversos aspectos de la satisfacción del alumnado  y se redactan de forma bilingüe. En ese punto, un grupo de personas integrantes de la comunidad educativa se ofrecen voluntarias para pasar las encuestas a los alumnos y vaciar, posteriormente, los resultados a una hoja de cálculo o similar para su procesamiento.

El objetivo es que cada grupo de alumnos responda la encuesta para cada docente que les da clase. De ese modo, cada docente recibe un feedback separado de cada grupo en el que imparte docencia.

La idea inicial sería fotocopiar la encuesta, entrar al aula del grupo en la sesión de tutoria y que los alumnos respondan las mismas preguntas para todos los profesores. Pongamos, una hoja por cada profesor-asignatura. Las encuestas se recogen una vez rellenadas y se reparten entre los voluntarios para tabular los resultados en una hoja de cálculo.

Todo parece que está claro, pero cuando este voluntarioso grupo se pone a hacer números de las encuestas que van a tener que pasar las cosas empiezan a no cuadrar.

Los números

Imaginemos que el centro de este hipotético caso práctico tiene las siguientes unidades:

  • 2 unidades de 1º de la ESO a 4º de la ESO. Total 8 grupos de ESO.
  • Dos especialidades de bachillerato (1º y 2º): Total 4 grupos de Bachillerato
  • Un CFGM y un CFGS. Total 4 grupos de CF.
  • Y una FP básica: 2 grupos de FP Básica.

Hasta ahora tenemos 18 grupos. ¿Pero cuántos profesores hay en cada grupo?

  • Pongamos que en ESO y Bachillerato hay una media de 15 asignaturas (contando la oferta de optativas, que también se han de evaluar). Eso hacen (8 + 4)*15 =  180 pares profesor/asignatura
  • En CFGM, CFGS y FPB pongamos 6 asignaturas. Eso hacen (2 + 2 + 2)*6 = 36 pares profesor/asignatura

Así salen 216 encuestas diferentes a hacer entre todos los alumnos. ¿Pero cuantos alumnos hay en cada grupo? Pongamos que hay unos 30 alumnos de promedio en cada grupo (18 en la FP Básica). Eso nos da un total de 6156 encuestas respondidas. Si cada encuesta son 15 preguntas, sale a pasar a la excel un total de 92340 respuestas. ¡Eso es mucho trabajo!

¿Inviable?

Llegados a este punto, la iniciativa se muestra poco menos que inviable.  Sobre todo si se quieren tener los datos antes de que acabe el curso. Quizá sea el momento de plantear una solución alternativa. Una solución que implique el tratamiento automatizado de la información para eliminar el cuello de botella que supone el vaciado de la encuesta. Y para eso hace falta una solución informática.

Suerte que tenemos la informática

Efectivamente, el problema del aluvión de encuestas se simplifica si se informatiza la encuesta, de manera que sea un programa el que muestre la encuesta de forma digital al alumno y guarde automáticamente la respuesta en una base de datos para, posteriormente procesar la información.

Tan solo basta reservar un aula con ordenadores e ir acompañando a los diferentes grupos a dicho aula para que respondan la encuesta (recordemos, sólo 18). De ese modo, los resultados de cada par profesor/asignatura se obtienen al instante. Y sin gastar papel. No está mal, ¿no?

La solución

Pero para llegar ahí, es necesaria una herramienta que nos permita preparar y desplegar las encuestas en el aula con algún formato digital.

Una primera opción sería Google Forms: Se puede diseñar una plantilla genérica de encuesta y luego repetirla para cada par profesor-asignatura de cada grupo, creando una encuesta diferente personalizada para cada grupo de alumnos.

La plantilla podría contener en cada página la encuesta de una asignatura diferente, de manera que los alumnos van respondiendo uno detrás de otro, página a página, las mismas preguntas para todos los docentes.

Bastaría con duplicar la plantilla y editarla modificando el título de cada página  con la de los docentes del grupo, eliminando o añadiendo alguna, si es necesario. Y así, con los 18 grupos.

Google Forms es un herramienta muy intuitiva y que tiene una gran versatilidad a la hora de definir y organizar las preguntas. No obstante, cuando la encuesta crece más allá de determinado punto, el estilo WYSIWYG puede ser algo tedioso de modificar. Y estamos hablando de encuestas de unas 15 páginas.

Otra limitación es que no permite definir formularios en varios idiomas, por lo que si se quiere definir una encuesta bilingüe, hay que hacerlo poniendo ambos textos separados por una barra o similar en los enunciados de las preguntas y respuestas, sobrecargando la página de texto.

Además, si se da el caso de que algún grupo no pudiese tener acceso al aula de informática, la herramienta tampoco proporciona ningún mecanismo para automatizar el procesado de encuestas en papel. Dicho de otra manera: si se hace alguna encuesta en papel, sería necesario pasar las respuestas, pregunta a pregunta, a mano por voluntarios.

Ante esta situación, estuve haciendo una búsqueda por Internet de posibles alternativas que, como Google Forms, fuesen gratuitas, pero que ofreciesen una solución para los supuestos planteados. Y así es como dí con Lime Survey.

Lime Survey

Lime Survey es un sistema de encuestas libre y de código abierto para la gestión integral de encuestas. La aplicación se puede descargar de forma gratuita para ponerlo en funcionamiento en un servidor gestionado por nosotros. En la web oficial de Lime Survey también se ofrecen planes de pago para utilizar la herramienta en servidores de terceros.

Se trata de una herramienta extremadamente versátil, donde se puede crear todo tipo de encuestas, con la posibilidad de definir preguntas en varios idiomas y crear usuarios para limitar el acceso a las encuestas. Además permite exportar los resultados en múltiples formatos. Y por si fueses poco, incorpora la posibilidad de generar encuestas en papel con un formato que permite se procesado automáticamente tan solo escaneando los resultados a PDF.

Instalando Lime Survey

Instalar Lime Survey en un servidor de gestionado por nosotros no es diferente a instalar cualquier otra aplicación, basta con subir los archivos al servidor y acceder a la página principal, donde se nos guiará por el asistente de instalación. Bueno, es posible que para este paso sí que sea necesario tener un poco de conocimiento sobre la administración de un servidor web. En el manual de Lime Survey se detalla el proceso.

Una vez instalado, podemos acceder con las credenciales que hemos creado durante el proceso de instalación.

Página principal de Lime Survey. El estilo es un poco «old style», pero se puede personalizar.

Cuando iniciamos sesión, entramos al panel de control. Desde aquí podemos acceder a algunas funciones generales de la herramienta:

Panel de administración

Donde:

  1. Desde aquí se pueden añadir usuarios a la aplicación. Los usuarios pueden crear sus propias encuestas o ver los resultados de encuestas específicas.
  2. Desde aquí se pueden configurar las características generales de la aplicación.
  3. Listado de las encuestas disponibles para el usuario que ha iniciado la sesión.
  4. Botón de añadir encuesta.

Creando una encuesta

Pues bien, vamos a crear una encuesta de prueba para ver como funciona la herramienta: Pulsamos al botón de añadir.

Creando una encuesta

Como se puede apreciar, además de información como título, descripción, mensaje de bienvenida, etc. se nos pregunta el idioma base de la encuesta. Por defecto, la encuesta estará en ese idioma, pero podemos añadir otros y eso hará que cada vez que introduzcamos un texto (por ejemplo, el enunciado de una pregunta), hayan varias cajas de texto, una para cada idioma definido. Eso permitirá al destinatario de la encuesta cambiar el idioma de las preguntas completamente en cualquier momento.

Si creamos la encuesta, nos saldrá la siguiente pantalla.

Detalle de encuesta

Donde:

  1. Es el control que nos permite activar o desactivar la encuesta. El cuadro rojo indica que la encuesta está desactivada, por lo que si accede a la URL de la misma (Survey URL) aparecerá un mensaje de error. Aprentando a ese botón se puede cambiar el estado a activa.
  2. El icono del engranaje nos permite probar la encuesta, para ver como queda.
  3. Desde aquí podemos modificar las opciones específicas de la encuesta.
  4. Este botón nos da acceso a la visualización de los resultados de la encuesta.
  5. Las encuestas en Lime Survey se clasifican en «Grupos de preguntas», que vienen a ser las páginas en las que se divide la encuesta. Desde aquí podemos ver el listado de páginas definidas.
  6. Añadir una página.

Como os podéis imaginar, el siguiente paso será crear una página para poner preguntas en ella. Una vez le damos un título a la página (en uno o varios idiomas) nos encontramos con un nuevo nivel:

Página de encuesta

Donde:

  1. Podemos probar de forma individual la página.
  2. Configurar las opciones de la página.
  3. El listado de preguntas que tenemos en esta página.
  4. Añadir una pregunta.

Podemos añadir tantas preguntas como queramos en la página de entre la gran variedad de tipos de preguntas que existen en Lime Survey.  No entraré a detallar como funciona cada tipo de pregunta,  para eso os remito al manual de la herramienta.

En nuestro caso, he creado una única pregunta de matriz de preguntas, donde las filas son los diferentes ítems que ha de valorar el alumno y las columnas las diferentes opciones de respuesta.

Opciones de respuesta en una pregunta de tipo matriz.

Como se puede apreciar, la navegación a través de la encuesta y las  preguntas es un poco peculiar: se van añadiendo niveles de detalle que podemos editar independientemente, con el siguiente orden:

Aplicación > Encuesta > Página de encuesta > Pregunta

Si quieres probar Lime Survey en un servidor de prueba para familiarizarte con su interfaz y funcionalidad, puedes acceder a la Live Demo que ofrecen desde su web.

Resultados de la encuesta

Una vez hayamos activado la encuesta, basta con compartir el enlace con los alumnos para que la rellenen. Y entonces, podremos consultar los resultados de la encuesta accediendo a la sección correspondiente.

Resumen de las respuestas guardadas.

Si apretamos en el botón con el icono de la gráfica, accederemos a una sección para ver las respuestas en detalle. Se pueden aplicar filtros a los resultados: indicar si queremos gráfica o no, o en qué formato queremos obtener los resultados entre HTML, PDF o Excel.

También podemos obtener únicamente los resultados de una determinada pregunta o de una página. Esta opción resulta interesante en nuestro caso práctico si se quiere obtener sólo la valoración de una asignatura para trasladársela al/la profesor/a correspondiente.

Ejemplo de informe de respuesta en HTML en el que se aprecian las respuestas para una de las preguntas.

Encuestas en papel

Como he comentado con anterioridad, Lime Survey, permite exportar nuestras encuestas en papel con el formato QueXML. Este formato diseñado por el Australian Consortium for Social and Political Research Incorporated (ACSPRI) esta diseñado para ser fácilmente reconocido de manera digital, lo que nos permite escanear las encuesta una vez rellenadas por el alumnado en papel y procesarlas automáticamente usando una herramienta disponible en esta web. El resultado será equivalente a si hubiesen rellenado el cuestionario online.

Extracto de una encuesta exportada al formato QueXML. Es un PDF que se puede imprimir para luego ser escaneado una vez rellenado.

No he probado a fondo esta opción (todavía), pero me parece muy interesante la automatización del procesado de las encuestas de papel sin necesidad de hacer uso de una solución propietaria con un software o hardware específicos: sólo hace falta un escáner con alimentador automático de hojas para procesar en pocos minutos cientos de encuestas.

Encuestas de satisfacción del alumnado con Lime Survey

Volviendo al caso práctico, la implantación del sistema de encuestas de valoración del profesorado en un centro educativo de Lime Survey se podría hacer de la siguiente manera:

  1. Se crearía una plantilla de página con las preguntas que se harían a cada profesor, traducidas en los idiomas que sean necesarios. La plantilla será genérica (no incluirá el nombre del profesor o la asignatura)
  2. Se exporta la plantilla de página. Lime Survey tiene un formato de archivo específico con extensión lsg para guardar las páginas (es un XML). Le podemos llamar plantillaProfesorAsignatura.lsg
  3. Se crea una encuesta nueva para cada uno de los 18 grupos. Aquí también se puede usar la exportación: se crea una encuesta que contendrá todos los textos en bilingüe (presentación, instrucciones, mensaje final…) y luego se importa tantas veces como haga falta sólo modificando el título para poner el código del grupo.
  4. Ahora vamos a usar plantillaProfesorAsignatura.lsg que hemos creado en el paso 2: En la encuesta creada se importa la plantilla de página tantas veces como profesores impartan clase al grupo y se edita el título de cada página para poner el del profesor y la asignatura correspondiente. Afortunadamente, el diseño de la navegación dentro de las páginas en Lime Survey facilita bastante esta operativa.
  5. Probamos la encuesta para verificar que todo está en su sitio.
  6. Se activa la encuesta y se hace llegar al alumnado, ya sea mediante el enlace web en un ordenador, para realizar desde el aula de informática, o bien usando la opción de exportación QueXML, para hacer en el aula convencional. En el segundo caso, seria necesario un paso adicional para escanear las encuestas y procesar el PDF con el programa correspondiente.
  7. Se consultan los resultados.

En este punto hay que contemplar algunos casos especiales:

  • Los desdobles:  En determinadas ocasiones, hay asignaturas que se desdoblan y son impartidas por varios profesores en grupos más reducidos. Esto se soluciona con la opción «No responde», que es la opción seleccionada por defecto para cada pregunta.  El alumno que llegue a una página en la que se le pregunte por un profesor que no le da clase, debe pasar a la siguiente página sin responder a las preguntas. Esto también vale para las convalidaciones o los módulos de FP aprobados en anteriores convocatorias.
  • Las optativas: Cuando los alumnos se separan para cursar asignaturas optativas que varían en función de cada alumno, la cosa se complica, ya que en las asignaturas optativas coinciden con alumnos de los otros grupos del mismo nivel. En este caso, es necesario sacar las optativas del cuestionario de grupo y ponerlas en un cuestionario independiente. De esa forma, los grupos que tengan optativas tendrán que responder dos cuestionarios: el de las asignaturas comunes, que será específico de cada grupo y otro con las optativas, que será común a todos los grupos del mismo nivel. Afortunadamente Lime Survey permite enlazar nuestro cuestionario para que salte automáticamente a una URL al terminar. De ese modo, podemos enlazar ambos cuestionarios de forma casi transparente.

Conclusiones

Lime Survey es una herramienta potente y versátil que permite dar una solución automatizada para poder recabar de forma viable la opinión de un grupo tan numeroso como puede ser el alumnado de un centro. Es cierto que no es tan intuitiva como otras soluciones, pero tiene una curva de aprendizaje rápida y mucha documentación en Internet para resolver todas las dudas que vayan surgiendo. Además, ofrece soluciones «offline» para pasar las encuestas generadas, cosa que puede ser muy útil cuando las aulas informáticas están muy solicitadas.

Es verdad que para poner en funcionamiento esta solución hace falta una tarea de organización considerable, especialmente en lo que respecta a la creación de las diferentes encuestas, ya que los profesores y asignaturas varían para cada grupo, por lo que hay que configurar las encuestas de forma específica con el listado de asignaturas del grupo. En este apartado, la gestión multiusuario de Lime Survey puede ser de gran ayuda para repartir el trabajo (en el caso práctico habían 18 grupos, por lo que con tres profesores voluntarios, cada profesor tendría que preparar la encuesta para 6 grupos).

Para terminar, os dejo con mi listado de ventajas y desventajas del método propuesto para crear encuestas de satisfacción del usuario con Lime Survey:

Ventajas:

  • Muchos tipos de preguntas
  • Personalización del aspecto de la encuesta al estilo de la institución
  • Encuestas en varios idiomas
  • Resultados se pueden exportar en Excel, PDF o HTML
  • Posibilidad de duplicar encuestas, páginas o preguntas
  • Gestión multiusuario
  • Exportar encuestas en formato QueXML para procesamiento automático de encuestas en papel

Desventajas:

  • Interfaz poco intuitiva
  • Es necesario un servidor web (y una persona que sepa administrarlo)
  • Si se quiere cambiar una pregunta una vez se han creado las encuestas, sería necesario modificarla en todas las encuestas una a una.

 

 

 

TDAH: Guía para la atención educativa en los CFGM

Guía publicada por la Conselleria de Educación que complementa y adapta a los ciclos formativos de grado medio aquella de la que ya hablé en la entrada Diversidad en el aula: TDAH.

La nueva guía incluye ejemplos prácticos de actividades que se pueden realizar en el aula para fomentar la inclusión del alumnado TDAH, propone adaptaciones metodológicas vinculadas a comportamientos específicos y enuncia ejercicios concretos para la autoregulación de la conducta del alumno TDAH. Entre muchas otras cosas.

Un documento imprescindible para impartir docencia en Grado Medio, pero también en FP Básica.

https://es.slideshare.net/cmillanb/tdah-gua-para-la-atencin-educativa-en-los-cfgm