Diseñando para imprimir en 3D, en más de una ocasión me he encontrado en la situación en la que el diseño es más grande que la base de impresión. Cuando esto pasa, lo primero que uno piensa es disminuir el tamaño del objeto con el laminador hasta que quepa en la base de impresión, no obstante esto no siempre es posible. Por ejemplo, cuando el diseño incorpora etiquetas en braille, donde las dimensiones se han de mantener.
En el anterior párrafo he enlazado un proyecto que realicé ya hace unos años, en el que diseñamos las líneas de metro de la ciudad de Valencia. El problema que encontramos es que hay líneas de metro con más de 30 paradas y, claro, el diseño no cabía en ninguna impresora. En ese caso, recurrimos a un programa muy sencillo que nos permitía trocear las líneas, previamente diseñadas, en varios tramos para poder imprimirlos y, posteriormente, pegarlos de nuevo con cola de contacto.
Netfabb Basic
Este programa es NetFabb Basic, un programa originalmente gratuito que fue absorvido por Autodesk que, finalmente, lo hizo desaparecer. No obstante, gracias a la comunidad podemos seguir accediendo de forma legal y gratuita a antiguas copias de este programa para Windows (también funciona en GNU/Linux con Wine).
Para descargarlo, hay que acceder al siguiente repositorio:
Ejecutamos la aplicación. En el mensaje que nos sale, marcamos la casilla de verificación, esperamos la cuenta atrás y pulsamos Later:
Cargamos el STL a trocear con Open > File
En la sección «Cut», movemos el eje X (puede ser el eje Y o Z, depende de como se haya importado la figura) hasta que la línea de color se ponga en la zona donde queremos hacer el corte (hacer el corte siempre entre dos estaciones)
Pulsamos «Execute Cut». Si nos pregunta el eje, le indicaremos el mismo que hemos usado para definir el punto de corte.
Ahora, quita la opción «Triangulate Cuts» y le damos al botón «Cut»
El resultado de la operación, nos da una advertencia. Vamos a corregirla.
Seleccionamos una de las partes y pulsamos el botón «Repair»
Pulsamos el botón «Automatic repair» (1), después «Execute» (2) y «Apply Repair» (3). En la pregunta que nos hace al darle a Apply repair respondemos «Remove old parts»
Repetimos el proceso de reparado para el otro trozo.
Ahora, guardamos cada uno de los trozos en un STL. LE damos al botón derecho sobre el trozo, seleccionamos Export y luego STL.
Ahora, ya podemos importar los STL generados en Cura o nuestro laminador favorito y encajarlos sin problema en la base de impresión.
Eso sí, cuando la impresión termine, tendremos que volver a juntar las partes usando cola de contacto.
La fotogrametria se ha convertido en una alternativa muy interesante y eficiente para realizar escaneados en 3D de una manera muy sencilla, a partir de imágenes o vídeos, que se pueden tomar directamente con el teléfono móvil y que se pueden procesar en cualquier equipo, incluso si son poco potentes. Esto, en combinación con una impresora 3D, abre la puerta a una gran diversidad de proyectos de aplicación que, llevados al aula, pueden proporcionar resultados espectaculares.
No es la primera vez que hablo de esto en blog, pero esta ocasión, voy a compartir los resultados de un proyecto educativo llevado a cabo en el aula durante el último año y que ha supuesto la implementación en el aula del proyecto Erasmus+ AMUSING.
Arte táctil
El objetivo de este proyecto es utilizar las técnicas de escaneado e impresión 3D en el aula para poder generar réplicas de piezas de museo, para que las personas con discapacidad visual puedan acceder de forma táctil a ellas. De este modo, el alumnado no solo adquiere destrezas en las técnicas para conseguirlo, sino que aprende sobre la propia pieza tratada, al tiempo que empatiza con las personas con discapacidad visual y, lo que no es menos importante, genera un recurso que ayuda a mejorar su integración. Todos ganan en una actividad donde el enfoque ApS es evidente.
A la hora de plantear como se podía llevar este proyecto al aula, era importante que el alumnado tuviese una interés académico respecto a la pieza que iba a procesar. No se trataba simplemente de replicar una pieza, sino que tendría que hacer un análisis formal de la misma para ser capaz de explicarlo táctilmente a la persona que va acceder a dicho recurso.
En efecto, al igual que pasa con el sentido de la vista, por muy entrenado que esté el sentido del tacto, no todo se puede apreciar a la primera y hace falta que alguien te explique mientras exploras para captar los matices. Cualquiera que haya hecho una visita guiada a un museo, se hará una idea de lo que hablo. Y si la visita ha sido a un museo táctil, más aún.
Explicando un altorelieve en el museo táctil de Atenas. Después nos intercambiamos los papeles.
Por ello, la decisión de implicar al departamento de Artes del centro parecía evidente: además, la propuesta les resultó muy interesante, pues en el bachillerato artístico tienen una asignatura de volumen donde la fotogrametria encaja muy bien. Y así es como entró en escena el alumnado de 1º de bachillerato de Artes.
Taller de fotogrametría
Una cosa que llama la atención al realizar un taller de fotogrametría con alumnado del bachillerato artístico es que, a diferencia de en otras ocasiones el que se había realizado el taller esta vez, la técnica pasaba a un segundo plano (era un medio) mientras que la pieza y sus características cobraban mayor protagonismo.
Así, tras una breve explicación sobre los principios de la fotogrametria y sobre el proceso para la toma de imágenes, la sesión práctica arrancó con un gran entusiasmo, con muchas piezas artísticas del departamento – y también aportadas por el alumnado- sobre las peanas, que, foto a foto, fueron reduciendo el espacio libre en las memorias de los teléfonos móviles de los y las participantes.
Un poco de teoría
Y mucha práctica
Los resultados fueron impresionantes. En un par de horas se escanearon varios objetos, de algunos de ellos se obtuvieron modelos tan espectaculares como el que se enlaza a continuación:
El resultado del taller constataba la viabilidad del proyecto en su conjunto; era posible generar réplicas de piezas artísticas con esta tecnología. Ahora sólo faltaba aplicar el mismo proceso a piezas artísticas de los fondos de un museo. Pero para eso, habría que esperar al curso siguiente.
Tarde en el museo
Entre una cosa y otra, el curso ya había pasado y el alumnado que realizó el taller estaba ya en 2º de Bachillerato. Por ello, era importante reanudar el proyecto cuanto antes para que no coincidiese con los meses previos a la PAU, cuando están de exámenes y completamente centrados en el examen de acceso universitario.
El siguiente paso era contactar con un museo para organizar la actividad. Afortunadamente, el Ayuntamiento de Valencia también participaba en el proyecto Erasmus+ AMUSING, por lo que lo más inmediato era tratar de coordinar la actividad con alguno de sus museos.
Entre ellos, La Casa Museu Benlliure resultaba especialmente interesante, ya que el alumnado que iba a hacer la actividad tenía, precisamente, a ese autor como uno de los que estaban preparando para las PAU.
Así que, se estableció contacto con la dirección del museo para plantear la colaboración y realizar una visita previa, junto a su director, para seleccionar las posibles piezas que se podrían escanear. Principalmente esculturas de Mariano Benlliure o de su colección. En paralelo, se realizó una instancia oficial al Ayuntamiento para solicitar acceso a las fuentes del museo.
En este punto, cabe aclarar que no todas las piezas eran susceptibles de ser escaneadas debido a aspectos relacionados con los derechos de autor y propiedad intelectual. Es por ello, que se optó por escanear piezas que no tuviesen ese problema. Lamentablemente, muy pocas de ellas eran de Mariano Benlliure. No obstante, era una selección muy interesante, pues combinaba esculturas de diferentes estilos, épocas y materiales.
Otro criterio que se siguió para elegir las piezas fue el de que fuesen fáciles de escanear; cuerpos cerrados, sin detalles muy pequeños y de materiales mate.
Con los permisos concedidos y las piezas ya preseleccionadas, se organizó una visita con el alumnado al museo. Primero se hizo una visita guiada a la exposición permanente. Después, los alumnos fueron a una sala especial donde estaban preparadas las piezas que se habían seleccionado y montaron todo el equipamiento (que se llevó desde el centro en un práctico carrito de la compra) para fotografiar las piezas.
Aplicando lo aprendido en el taller de fotogrametría
Además de las fotos del alumnado, se hicieron algunos vídeos envolventes de algunos objetos disponibles en el jardín del museo, para su posterior procesado.
La magia de la fotogrametría
De nuevo en el instituto, el alumnado procesó las imágenes con el software de fotogrametría, tal y como habían aprendido en el curso anterior.
Como actividad alternativa, se planteó un taller sobre fotogrametria con Google Colab con el alumnado del ciclo formativo de grado medio de informática, utilizando algunos de los sets de fotos capturados en el museo. Este tipo de proyectos siempre resultan mucho más enriquecedores cuando se integran a diferentes grupos y etapas, especialmente cuando cada grupo realiza un tarea específica diferente.
Uno detrás de otro, todas las esculturas fotografiadas fueron procesadas con el software de fotogrametría y se obtuvieron los modelos en 3D. De todas las piezas procesadas, solo de una no se pudo obtener el modelo correspondiente, lo que da una idea de la efectividad de la técnica. También se procesaron los vídeos. Los resultados, de nuevo, fueron espectaculares:
A continuación, al igual que se había hecho anteriormente, se fueron imprimiendo con la impresora 3D las piezas escaneadas. Este proceso se prolongó durante varias semanas.
Exposición de replicas
Hay que decir que, al realizar la impresión salieron a la luz algunos defectos en el reconocimiento del escaneado 3D que no se aprecian en el modelo gracias a la textura. Esto ocurre, principalmente en las piezas de materiales más brillantes (como, por ejemplo, una que era de madera pulida). Por otro lado, las piezas que mejor salieron fueron las que eran de materiales más mate (especialmente los de barro o arcilla).
Explicación táctil
El proyecto no terminaba en la generación de la réplica. Como he explicado anteriormente, para acceder a una pieza artística mediante el sentido del tacto, no basta con tocar la pieza; necesitas que alguien guíe y explique la información que proporcionan los dedos. Es por ello, que el paso final requería de ese análisis de la pieza y del diseño de esa exploración.
Para ello, se solicitó a La Casa Museu Benlliure una relación con información sobre las piezas escaneadas, obteniendo un listado con datos sobre la autoría, técnica y el año de creación. Con esta información como punto de partida, el alumnado realizó una tarea de investigación y documentación, que plasmaron en un guion de exploración táctil.
Es entonces cuando llega el momento del paso final, en el que hay que probar los recursos generados. Para ello, se contactó con Isabel, para hablarle del proyecto y proponerle colaborar. Isabel es una persona ciega que también se dedica al apasionante mundo de la docencia y que ya había colaborado previamente en el proyecto de implementación del PRIN3D. Ella accedió a hacer esta visita virtual al Museu Benlliure desde las aulas del IES, guiada por el alumnado de bachillerato.
El alumnado había preparado por grupos los guiones de explicación, hablando de la autoría, el contexto, la técnica, el estilo, describiendo la pieza e, incluso, usando piezas del material original de la obra para trasladar la sensación táctil del original (rugosidad, calidez…).
Una vez estuvieron preparados los guiones, se organizó una sesión en la que Isabel vendría al aula y los diferentes grupos le guiarían a través de sus piezas. Ella, además, proporcionaría su feedback sobre la pieza y sobre los diferentes aspectos de la exploración. De nuevo, aprovecho estas líneas para reiterar mi agradecimiento por su disposición y comentarios.
La sesión supuso una gran experiencia para todas las partes y un magnífico final para un proyecto en el que se había trabajado de forma intermitente, durante dos cursos académicos. Más de un año. Se dice pronto.
El proyecto AMUSING, como en su dia fue el PRINT3D, ha supuesto un marco de trabajo ideal para plantear actividades con enfoque ApS que permitan desarrollar las competencias técnicas del alumnado en el uso de las nuevas tecnologías, en campos de aplicación que permiten la integración de personas con discapacidad visual, empatizando así con su realidad social. Además de todo esto, el hecho de trabajar con piezas de la Casa Museo de uno de los autores que están trabajando en el aula, genera un punto de motivación adicional para el alumnado participante.
Así, nos encontramos ante un proyecto multidimensional, en el que todas las partes implicadas hemos obtenido un enriquecimiento, técnico, cultural y personal significativo. Un ejemplo de más de lo potente que puede ser el enfoque de Aprendizaje Servicio en el aula.
No obstante, hay que mencionar también algunos aspectos susceptibles de mejora, principalmente relacionados con las limitaciones del escaneado y la impresión 3D. Respecto a lo primero, hay que remarcar que las piezas que han salido bien han sido aquellas que no tenían una volumetría compleja y cuyo material era mate (principalmente las piezas de barro, yeso o similar). El resto de piezas presentaban algunos defectos no presentes en el original, provocados por brillos o reflejos capturados por la cámara y que el software de fotogrametría no ha sabido interpretar. Esto es podría solucionar realizando un proceso de postproceso sobre el modelo 3D, que requeriría una mayor dedicación en la formación del alumnado en el uso de software específico.
Por otro lado, la impresión 3D, de nuevo, supone una limitación importante. Las impresoras con las que trabajamos en el aula están muy limitadas en lo que refiere al tamaño que permiten imprimir. Por ello, prácticamente ninguna pieza ha podido ser impresa a tamaño real. Esto se podría solucionar troceando la pieza (de nuevo, más formación en el uso de software específico) e imprimiendo por partes. Sin embargo, esta solución no ha dado buenos resultados en el proyecto, ya que el punto de unión de las diferentes partes se detecta en la exploración táctil y genera «ruido» en la percepción de la obra.
También, y como siempre, los atascos y fallos de la impresora han generados periodos muy largos de impresión. Cada pieza tardaba varios días en imprimirse y si algo fallaba había que volver a empezar desde el principio, desperdiciando mucho tiempo (y PLA). Además de eso, en ocasiones, el PLA defectuoso creaba rugosidades en la pieza que afectaban a la exploración táctil. Esto último se podría solucionar haciendo un tratamiento de la pieza con alguna resina específica.
Con todo, como se ha explicado con anterioridad, el proyecto ha resultado muy satisfactorio ylo cierto es que con unos recursos muy al alcance de todos y muy pocos conocimientos técnicos, es posible conseguir unos resultados increíbles. Estamos hablando de llevar cualquier pieza de museo a cualquier aula del mundo. Y eso no es cualquier cosa.
Uno de los denominadores comunes de estas implementaciones era el uso de Tinkercad como herramienta de diseño, gracias a su sencillez, versatilidad y al hecho de que es multiplataforma (se ejecuta desde el navegador) y es de acceso gratuito, lo que habilita al alumnado a poder seguir utilizándolo en otros contextos, académicos o no.
El otro es Touchsee.me, una herramienta para la generación de etiquetas braille online que resulta fundamental para dotar a los objetos generados de información táctil. De nuevo, se trata de una herramienta accesible desde el navegador en la que, simplemente seleccionando el idioma y escribiendo un texto, se genera el archivo STL listo-para-imprimir con el texto en braille.
Escribir, descargar e imprimir
Una vez descargado, la etiqueta STL se puede llevar al laminador para imprimir. Mi recomendación es hacer la impresión en vertical, ya que los puntos quedan más suaves (y, por tanto, agradables al tacto) que se se imprime tumbada.
En 9 minutos tenemos la etiqueta braille impresa
Ahora bien, el problema llega cuando intentamos integrar esa etiqueta en algún diseño más complejo. Por ejemplo, imaginemos que queremos hacer una placa que combine un texto en altorrelieve con el braille, como el de la imagen.
Cartel accesible de aula
El diseño es trivial en Tinkercad: basta con crear la superfície, añadir el texto (en sans) e importar la etiqueta generada con Touchsee.me.
Sin embargo, cuando importamos la etiqueta, nos encontramos con el siguiente resultado:
Resultado de importar una etiqueta de Touchsee.me a Tinkercad
Parece que en el proceso de importación algo no funciona; la manera en la que touchsee.me genera el STL parece no gustar a Tinkercad y el resultando es una etiqueta braille que, en el mejor de los casos, resultará confusa de leer de forma táctil. Y esto presenta un grave problema para el objetivo del proyecto en uno de los elementos más importantes.
Pero no desesperemos, como siempre hay vías alternativas. Veamos algunas:
Solución #1
Una primera aproximación a la solución del problema, seria la de imprimir la eqtiqueta por un lado y, en Tinkercad, simplemente dejarlo todo preparado para agregarla al diseño tras la impresión. Esto es, haríamos un hueco para encajar la etiqueta una vez impresas ambas piezas.
Diseño de placa con hueco para la etiqueta braille
Posteriormente, pegamos en el hueco la etiqueta:
Manualidades
Esta, aunque resuelve el problema, tiene algunos inconvenientes. Como que el diseño es más complejo, ya que la etiqueta ha de encajar perfectamente. Si nos quedamos cortos, habrá que arriesgarse a lijar la etiqueta, si nos pasamos, sobrará hueco, dificultando la lectura. Además, la etiqueta braille se puede caer o soltar con el tiempo.
Solución #2
Una segunda solución pasa por tratar de corregir los defectos en la pieza generada por Touchsee.me que provocan la mala importación en Tinkercad.
Lo que haremos será reparar la etiqueta braille con un programa de diseño 3D, llamado Meshlab. Meshlab es gratuito, de código abierto y está disponible para todas las plataformas:
Instalamos Meshlab, e importamos el STL con el braille.
Una etiqueta de Touchsee.me abierta con Meshlab
Comprobamos como en Meshlab el STL se ve bien, pero aún así hay que corregirlo.
Seleccionamos Filters > Cleaning and repairing > Snap Missmatched borders
Esta opción repara bordes que estén ligeramente desplazados y que pueden causar una mala importación en Tinkercad, creando nuevos vértices.
Snap Mismatched Borders
Dejamos las opciones por defecto y le damos varias veces a Apply, para que cree nuevos vértices que puedan dar a Tinkercad más información para reconstruir correctamente el STL.
Podemos guiarnos por el mensaje que aparece en el cuadro inferior derecho (Cuando veamos que el filtro ya no hace nada, que aparece 0).
El log nos dice lo que hace el filtro en cada paso
Cerramos el diálogo, y exportamos el STL.
Ahora, abrimos el STL corregido con Tinkercad, veremos como el resultado ha mejorado considerablemente:
Importación perfecta!
Este método no es 100% efectivo pero, en algunos casos como el del ejemplo, he conseguido una importación casi perfecta.
Solución #3
Finalmente, lo que podemos hacer es usar otra herramienta para generar el STL con el braille. Lo cierto es que Touchsee.me es la más completa de todas las que he encontrado, pero tiene este pequeño inconveniente de la importación a Tinkercad.
Una alternativa que es completamente compatible con Tinkercad es una herramienta llamada «Text to 3d printable Braille» y a la que podemos acceder desde el siguiente enlace:
El funcionamiento no es tan intuitivo como el de Touchsee.me y además está en alemán. Pero, como veremos, tampoco resulta complicado hacerse con su funcionamiento:
Text to 3d printable Braille
El diseño de la aplicación tiene dos partes, la parte superior con una previsualización de la etiqueta a generar y la parte inferior, con los parámetros que se pueden modificar.
Para generar la etiqueta hay que escribir en Text lo que queremos codificar (obvio)
Las opciones que nos da son las siguientes:
Großbuchstaben zulassen: Permitir mayúsculas. Si lo activamos, codificará las mayúsculas (recomendado)
Kontraktionen: Aplica contracciones para simplicar la longitud. Yo lo desactivo.
Direkte Konvertierung: Conversión directa. Desactivado por defecto.
Si pulsamos en Details einstellen veremos las opciones avanzadas. Entre otras cosas, podemos modificar el tamaño de la placa (Form-Größe), la altura del punto (Punkt-Höhe), el diámetro del punto (Punkt-Durchmesser), el grosor de la placa (Platten-Stärke) y la distancia entre las filas (Rand):
Además, podemos deshabilitar la muesca de referencia (Referenz Eck), aunque no lo recomiendo ya que nos ayudará a identificar el sentido de la lectura de la etiqueta, lo que será muy práctico a la hora de posicionarla en Tinkercad.
Es eso, o tener algunas nociones para interpretar el braille.
Lo que si os recomiendo deshabilitar la generación de soportes (Stützen generieren) ya que si no se pretende imprimir en vertical la etiqueta, como es nuestro caso, no son de utilidad.
Soportes
Una vez configurado todo, hay que darle al botón que hay en la parte inferior:
Pulsar primero aquí
Eso cargará nuestro diseño en la vista previa. Una vez hayamos generado el modelo presionando el botón anterior, ya podemos darle a generar el STL para su descarga. Si no lo hacemos en ese orden, nos descargaremos el diseño precargado no el que nosotros queremos.
Cuando le demos a Generate STL el botón se convertirá en el enlace de descarga del STL
El STL descargado se puede importar al Tinkercad sin problemas:
Resultado de la importación en Tinkercad
De este modo, ya podemos usar el braille en nuestros diseños con Tinkercad.
En anteriores entradas, he compartido procedimientos y técnicas para escanear objetos en 3D utilizando fotogrametría a partir de imágenes o vídeos. La sencillez del proceso – que incluso puede ser realizado con la cámara de un teléfono móvil – y los llamativos resultados que produce – incluso en equipos poco potentes – hacen que sea una interesante opción para introducir estas técnicas en el aula para tratar contenidos de forma inclusiva, de acuerdo al planteamiento del proyecto Erasmus+ AMUSING.
Pero, por sorprendentes que sean los resultados, si los miramos de cerca con el visor 3D, podremos apreciar pequeñas imperfecciones que ha cometido el programa de escaneado en 3D al componer el volumen a partir de las imágenes. Estas imperfecciones suelen estar disimuladas por la textura, por lo que pasan desapercibidas en un visor 3D, sin embargo, si nuestro objetivo es imprimir la pieza, estas imperfecciones o ruido 3D, puede trasladarse al objeto y, por tanto al tacto.
Por ejemplo, veamos la siguiente escultura de un rostro escaneada por fotogrametria:
Si nos acercamos al rostro:
Aparentemente, el modelo parece bastante fidedigno con el original, por lo menos en el visor. Sin embargo, si cambiamos las opciones de iluminación activando el shading, veremos que, en realidad, la textura nos está engañando. En la siguiente imagen se aprecia como, en realidad el programa de escaneado ha tenido problemas para reconstruir la parte interior del rostro, al tener menos fotografías que capturasen correctamente esa zona.
Esas imperfecciones se trasladarían al modelo impreso, alejando la experiencia táctil del modelo original.
Como ya se ha comentado en este blog, el objetivo del proyecto Erasmus+ AMUSING es crear réplicas de objetos de museos para poder ser manipuladas y así, entre otras ventajas, poder ser explicadas a las personas con discapacidad visual. Así, que es necesario eliminar en la medida de lo posible esas imperfecciones que puedan despistar sobre la verdadera forma del objeto replicado.
En esta entrada, explicaré algunas técnicas sencillas que se pueden emplear para optimizar el objeto de cara a su impresión.
Autodesk Meshmixer
El programa que se empleará para procesar el modelo es el Autdesk Meshmixer. El programa es gratuito y se puede obtener desde su web:
Está disponible para Windows y Mac OSX, si bien, la versión de Windows puede ejecutarse bajo GNU/Linux con Wine con los drivers Vulkan.
Una vez instalado, lo ponemos en marcha y cargamos el archivo OBJ que queramos tratar.
Corrección de errores
Un primer paso necesario, incluso si no se pretende imprimir la pieza, es corregir todos los errores que se puedan haber producido al tejer la malla durante el proceso de fotogrametría. Esto es, triángulos mal cerrados, o cosas que se pueden ver en la anterior captura, zonas sueltas o la apertura del modelo por la parte en la que no hay información.
Para resolver todos estos problemas de forma sencilla, seleccionamos la opción Analysis y después en Inspector.
Esto nos marcará todos los errores detectados en rosa (zonas desconectadas ), azul (zonas no cerradas) y rojo (triángulos imposibles) y nos dará la opción de corregirlos: Auto repair all.
Al pulsar esta opción, vemos como ha desaparecido la zona suelta y se ha cerrado el modelo.
Eliminar zonas no deseadas
Una función muy importante que nos permite hacer el programa es poder descartar zonas del modelo. Esto es útil porque es habitual que los programas de fotogrametria modelen más de lo que nos interesa.
Por ejemplo, en nuestro modelo, se pueden apreciar zonas de la pared en la que se encontraba la placa con la escultura:
Una forma de deshacerse de esas partes es usando un corte por plano, que determinará qué parte se queda en el modelo y cuál se descarta.. Para ello, vamos a Edit > Pane Cut
Tenemos que posicionar el plano usando las flechas de colores, que nos permiten mover y rotar el plano. Lo que está en gris es lo que queda fuera y lo que mantiene la textura es lo que quedará tras hacer el corte.
Tras posicionar el plano para que deje fuera la pared, le damos a Accept para que haga el corte.
El resultado se cierra automáticamente, por lo que no hace falta que volvamos a lanzar el inspector.
Posicionar el modelo
Otro aspecto interesante de cara a la impresión es rotar y escalar el modelo para facilitar su posicionamiento en el programa de segmentación de la impresora 3D.
Para ello, Meshmixer nos permite poner en pantalla la base de impresión (View > Show Printer Bed) y transformar el modelo (Edit > Transform):
De nuevo, usamos las flechas para rotar y posicionar. Si queremos redimensionar de manera uniforme, hay que apretar sobre el cuadro blanco que hay en el centro y mover el ratón sin soltar.
Una vez posicionado, le damos a Accept para que se apliquen los cambios de la transformación.
Suavizar superficies
Finalmente, vamos a tratar el objeto para suavizar las imperfecciones. Para ello, seleccionamos Sculpt, opción que nos permite modificar el aspecto del modelo. Como lo único que queremos es suavizar la superfície, seleccionaremos la brocha Shrik Smooth.
Ahora, sobre el modelo, iremos repasando las zonas que queramos suavizar. En cierta manera, es como maquillar al modelo. Podemos cambiar la fuerza y tamaño de la brocha desde las opciones.
Para apreciar el efecto de lo que estamos haciendo, podemos activar para que se vea la malla (View > Show Wireframe). Veremos como, a medida que aplicamos la brocha, la malla se modifica. En este caso, lo que hace es regenerar la zona eliminando los posibles bultos.
Como se puede apreciar en el ejemplo, al aplicar la brocha estamos añadiendo nuevos triángulos, haciendo más complejo el modelo. Puedo reducir este efecto ampliando el tamaño de la brocha (o disminuyendo las dimensiones del modelo para que el tamaño de la brocha sea más grande).
Otra cosa que puedo hacer, una vez haya terminado es simplicar la malla en esa zona usando el pincel AdaptativeReduce o Reduce, que simplifica los triángulos de la zona tratada.
El resultado complementa el suavizado anterior:
Exportar el modelo
Una vez modificado el modelo, lo podemos exportar desde File > Export.
Hay que tener cuidado con el uso de esta herramienta, ya que estamos modificando el resultado del escaneado, Un exceso en el suavizado o la reducción de triángulos puede deformar el objeto escaneado, alejándolo del modelo original. Mi recomendación es ir poco a poco y no suavizar más de lo estrictamente necesario para que desaparezcan picos o irregularidades muy evidentes.
Por ello, es preferible exportar el modelo modificado con otro nombre y no sobreescribir el original, por si tenemos que volver a partir del original en un momento, sobretodo teniendo en cuenta el tiempo que requiere procesar un modelo por fotogrametría.
El resultado es el que se ve a continuación. Las irregularidades han desparecido, dejando la mejilla izquierda sin irregularidades (aunque es cierto que aún podríamos suavizarla un poco más).
Conclusiones
En la entrada hemos visto como realizar algunos ajustes básicos de postprocesado con Meshmixer de una pieza escaneada en 3D para eliminar algunos de los defectos que se puedan derivar del proceso de fotogrametria. Cabe destacar que Meshmixer tiene una gran variedad de herramientas para tratar figuras en 3D, lo que lo convierte en una herramienta indispensable para el escaneado 3D. Además, es gratuita y multiplataforma.
Las técnicas de escaneado 3D mediante fotogrametria nos permiten obtener modelos en 3D de objetos del mundo real mediante la toma de una serie de fotografías adyacentes del objeto a modelar. El software de fotogrametría se encargará de encontrar puntos análogos en el conjunto de fotografías, realizando una triangulación que le permita representar el modelo en 3D.
Para que el modelo se pueda generar correctamente, es necesario que las fotografías se puedan solapar. Que todas tengan un poco de la anterior para que el software pueda enlazarlas. Algo similar a lo que hacen los móviles para hacer fotos panorámicas. Eso es difícil de conseguir tomando fotos «a pulso», por lo que se suele montar la cámara en un trípode, poner el objeto en una peana giratoria y se van tomando fotos a medida que se va girando poco a poco el trípode. Luego, subimos un poco el trípode, modificamos el ángulo de enfoque, y volvemos a empezar. Y así se hacen barridos completos con varias alturas y ángulos.
Sin embargo, si lo piensas, una manera de conseguir el mismo efecto sin necesidad de tanto montaje sería hacer un vídeo con los barridos «a mano» y después extraer fotogramas del vídeo de forma automática. Y eso es lo que voy a contar en esta entrada.
Recientemente, he estado en la National Gallery of Art de Vilnius donde decidí hacer algunas pruebas con esta técnica. Para ello, tomé unos vídeos cortos con mi viejo BQ Aquarius de algunas esculturas con la idea de generar modelos en 3D de algunas de las piezas expuestas. Veamos los resultados.
Los vídeos
Como he comentado, los vídeos fueron tomados con un móvil relativamente antiguo, aunque es capaz de grabar en 720p, está lejos de la calidad que se puede obtener con dispositivos más modernos. Traté de hacer un vídeo en el que iba haciendo un barrido de la pieza a escanear, lo que no siempre era fácil, porque la mayoría estaban apoyadas o ubicadas muy cerca de la pared, con lo que no podía dar la vuelta entera. Dependiendo de la pieza, los vídeos oscilan entre 25 y 60s.
Como se puede ver, el vídeo apenas dura unos segundos y se ha hecho un único barrido. La estátua es bastante alta y no disponía de un palo selfie o similar para poder obtener otros ángulos.
Los fotogramas
Una vez en el ordenador, lo que voy a hacer es extraer fotogramas del vídeo para obtener una secuencia de imágenes adyacentes.
Para ello, utilizaré ffmpg, un comando de GNU/Linux para tarbajar con vídeos que proporciona una infinidad de opciones. En este caso, simplemente utilizaré una opción que extrae fotogramas (-r) y le pasaré el número de fotogramas que quiero obtener por segundo. Es tan fácilo como escribir lo siguiente en el terminal (en la misma ruta en la que se encuentra el vídeo):
$ ffmpeg -i nike.MP4 -r 5 img-%03d.png
Lo que hago es invocar el programa, seguido de la opción -i, para indicarle el archivo de entrada (input), que es directamente el archivo con el vídeo que he extraído del móvil. Luego le pongo la opción -r y el valor 5, para decirle que saque 5 fotogramas por cada segundo de vídeo. Los archivos resultantes se generarán en el mismo directorio con los nombres img-001.png, img-002.png… y así sucesivamente.
Para más información sobre el uso del comando ffmpg, consultar el siguiente enlace.
En cualquier caso, comparto el resultado de la operación en un fichero ZIP:
Para procesar las imágenes, he utilizado el Metashape con las opciones por defecto. Prácticamente, arrastrar y soltar. El proceso duró poco menos de una hora.
Como se puede ver, al modelo le falta detalle, pero teniendo en cuenta la rapidez con la que se tomó el vídeo y la poca duración del mismo, el resultado es espectacular.
Otros ejemplos
A continuación comparto otros modelos generados siguiendo el mismo procedimiento, todos ellos capturados el mismo día durante la visita al museo (incluyo el archivo de vídeo original por si quieres hacer pruebas):
Con el proceso expuesto en la entrada se demuestra la facilidad con la que se puede escanear un objeto 3D con la ayuda de un teléfono móvil. Aunque la extracción de fotogramas no consigue imágenes de tanta calidad como la fotografía individual (de hecho, muchos fotogramas eran desechados por el software de fotogrametría por estar borrosos o movidos), el resultado es sorprendente y con una buena cámara y un buen barrido, se pueden conseguir resultados sorprendentes.
Esta técnica es especialmente útil para casos en los que no es posible ubicar el objeto en una peana o cuando es muy grande (por ejemplo, para escanear una estatua en un parque). Sin duda, es una técnica que puede ser muy interesante por su sencillez para trabajarla en el aula o durante una actividad extraescolar.
Bonus
Hablando de estatuas en el parque, este el resultado de procesar con esta técnica un vídeo a un tótem tallado en la madera típico de Lituania que encontramos en un bosque al sur del país. El vídeo era un barrido con vuelta completa al monumento.
En los últimos años he estado utilizando la tecnologia 3D en el aula de diversas maneras, algunas de ellas las he comentado en este blog, pero siempre partiendo del diseño mediante la combinación de formas geométricas en 2D y 3D para crear piezas y objetos para que fuesen impresos y, por tanto, materializados en el mundo real.
Una de las aplicaciones de esta tecnología ha sido la de crear en el aula recursos táctiles que puedan dar servicio a personas con discapacidad visual, de acuerdo a los objetivos del proyecto Erasmus+ PRINT3D.
Por ejemplo, el diseño de unas células en 3D puede suponer un recursos muy práctico para enseñar las partes de una célula de forma táctil en clase de biología.
Células eucariotas y procariotas
Las posibilidades de este campo son muchas y muy variadas, pero el problema llega cuando no se trata de diseñar una abstracción, sino de recrear un objeto real. ¿Cómo representamos táctilmente, por ejemplo, la morfología de la concha de un molusco en una clase de biología?
Fuente: http://www.gastrosoler.com
En este caso, el diseño geométrico se ve muy limitado para ofrecer una solución aceptable.
Es en este punto donde hace su entrada el proyecto Erasmus+ AMUSING, completando a su predecesor PRINT3D a través de invertir el punto de vista: ahora no se trata de trasladar los objetos de la pantalla a la realidad, sino de la realidad a la pantalla.
Efectivamente, este nuevo proyecto pone el foco en el escaneado 3D; Si no podemos diseñar una concha de molusco realista combinando formas geométricas, la obtendremos directamente de la realidad y luego, la compartimos en Internet para que otras personas puedan imprimirla en 3D y utilizarla como recurso en el aula.
Una concha escaneada y replicada a varios tamaños y calidades.
Fotogrametría: La clave de todo esto
Lo mejor de todo es que las técnicas de escaneado 3D se encuentran en un momento de madurez muy interesante, lo que las pone al alcance del aula sin necesidad de una gran inversión económica ni de la necesidad de tener unos conocimientos técnicos muy elevados.
En ese sentido, me atrevería a decir que estas técnicas tienen una curva de aprendizaje mucho mas pronunciada que la impresión 3D: se obtienen resultados sorprendentes al poco tiempo de empezar.
La tecnología clave detrás del escaneado 3D del que voy a hablar aquí es la fotogrametria. Según la Wikipedia « es el arte, ciencia y tecnología para la obtención de medidas fiables de objetos físicos y su entorno, a través de grabación, medida e interpretación de imágenes y patrones de energía electromagnética radiante y otros fenómenos”.
Lo cierto es que la fotogrametría ya lleva bastante tiempo entre nosotros y, aunque no nos demos cuenta, está presente en multitud de aplicaciones tecnológicas actuales.
La fotogrametria se usa mucho para la obtención de mapas 3D. Fuente: Wikipedia
De forma muy resumida, se trata de hacer fotos de un objeto desde diferentes ángulos para calcular las diferencias entre las imágenes y así interpretar medidas y, por tanto, la forma.
No es un proceso conceptualmente sencillo, pero afortunadamente, como veremos a continuación, el software actual permite realizarlo de una manera intuitiva sin necesidad de configurar parámetros avanzados.
El proceso con más detalle
Antes de ver el software, vamos a ver los pasos, a grandes rasgos, se realizan para obtener un modelo en 3D a partir de un objeto real.
Toma de imágenes: En primer lugar, hay que tomar fotos desde diferentes ángulos. Se recomienda que la iluminación sea buena y la foto esté bien enfocada. Por ello, es recomendable usar un trípode y, si puede ser, ubicar el objeto en una peana giratoria para facilitar su giro. Lo ideal es hacer barridos 360º desde varios ángulos, para capturar todos los detalles del objeto (por ejemplo, con la cámara a 10º, luego a 40º y finalmente a 80º). Es importante que las fotos se solapen unas con otras, por lo que el giro del objeto entre foto y foto, debería de ser inferior a 15º).
Hasta aquí es lo que hacemos nosotros, de lo que viene ahora ya se encarga el programa de fotogrametría cuando le pasamos las fotos.
Detección de puntos análogos (Feature extraction): Se analizan las fotos y, gracias a los solapamiento, se detectan los puntos homólogos, es decir, detalles del objeto que aparecen en varias fotos.
Comparación de puntos homólogos (Feature matching): Se comparan los puntos homólogos de las diferentes imágenes para encontrar coincidencias, es decir, el mismo punto en diferentes imágenes. Esta es la clave del proceso y de la cantidad de puntos que relacione, dependerá la calidad del modelo.
Triangulación (Structure from motion): A partir de los puntos homólogos y de los cambios detectados entre un punto homólogo en una imagen y el mismo punto en otra, se calcula el desplazamiento del objeto y su nube de puntos (coordenadas que definen el volumen del objeto).
Creación del mapa denso (Deep map): A partir de la triangulación, se interpolan nuevos puntos homólogos para acabar de completar el modelo y darle mayor detalle a la nube de puntos. Esta fase es la más laboriosa y suele requerir del uso de una tarjeta gráfica.
Mallado (Meshing): Una vez interpolado el mapa denso, se teje una malla en 3D, como una estructura de alambre, que recrea el volúmen detectado.
Texturizado (Texturing): Es el proceso final en el que se añade a la malla una capa con una imagen generada a partir de las fotografias en las que se le de el aspecto real del objeto.
Y con esto estaría todo, si el programa ha podido trabajar con las fotos proporcionadas, obtendríamos un archivo con extensión OBJ en el que encontraríamos el objeto en 3D.
Ya os adelanto que esto no siempre ocurre y, a veces el programa muestra un error porque no ha podido procesar bien las imágenes. Entonces, hay que descartar sesiones fotográficas enteras por una mala iluminación o enfoque, que hace que el software de fotogrametría no pueda sacar nada en claro del objeto.
Para evitar que eso ocurra, en el siguiente punto, recomiendo el uso de algunos utensilios relativamente fáciles de encontrar para optimizar la toma de fotografías. Pero antes, finalicemos la explicación de este proceso, pues si todo ha ido bien, una vez generado el archivo OBJ, volvemos a tomar protagonismo en un último paso:
Revisión del modelo: Tenemos que reparar los posibles errores que aparezcan en el modelo generado: caras sin cerrar, vértices duplicados, etc. Esto lo podemos hacer con cualquier software de edición 3D (Meshlab, Microsoft 3D builder…). La mayoría de ellos incorporan asistentes para reparar el modelo. También en este paso, tenemos que eliminar aquellas zonas del diseño que no sean relevantes y que se han generado en el modelo: partes de la peana, objetos del fondo, etc. Normalmente, basta con seleccionarlos en un programa de edición 3D y darle a la tecla suprimir.
Con esto ya estaría todo, y tendríamos nuestro modelo en 3D para imprimir (enviar el OBJ a Cura 3D) o para compartir (subirlo a un repositorio online como Sketchfab).
Recursos necesarios
Como se ha comentado, la toma de imágenes es un paso crítico que va a afectar a todo el proceso posterior.
Lo ideal es disponer de un mini estudio fotográfico, para conseguir imágenes con la mejor calidad posible. Tampoco hace falta un montaje profesional, aunque cuanto más profesional sea, mejores imágenes se obtendrán.
A continuación, os propongo una serie de elementos, relativamente fáciles de encontrar para montar ese mini estudio con el que empezar con la fotogrametría (con * lo que es imprescindible, el resto es opcional):
Cámara digital* No hace falta que sea una reflex, pero si que es muy recomendable que tenga una buena lente y se pueda configurar en modo manual.
Trípode: Para evitar vibraciones en la cámara, especialmente, si se ha puesto una velocidad de obturación baja. Nos ayudará también a establecer las diferentes alturas e inclinaciones de cámara con la que haremos el barrido 360º.
Plato giratorio: Esto ayuda a realizar el barrido 360º del objeto. Vamos girando el plato de 15º en 15º, y hacemos una foto en cada paso. Puede ser una peana giratoria de una televisión.
Caja de luz y focos: nos van a permitir obtener una iluminación uniforme y sin sombras.
Un cartón o tela de croma, que ayudará a eliminar detalles del fondo de la imagen y, por tanto, a agilizar el procesado de las imágenes.
Ordenador *, si tiene tarjeta gráfica NVidia (compatible con CUDA), mejor.
Como se puede ver, con una buena cámara y un buen ordenador ya podemos trabajar. Y, sí, también valen las cámaras del móvil.
Sobre el software
Una vez tomadas las fotografías, hay pasarlas al software de fotogrametria para que haga la magia.
Existen multitud de programas de fotogrametria, algunos gratuitos, otros de pago. Entre los primeros, cabe destacar Meshroom, que es un software libre multiplataforma bastante versátil, intuitivo y que, además, da muy buenos resultados.
En el siguiente vídeo se puede ver su funcionamiento:
Se puede descargar de forma gratuita desde su web:
Además, tambien es interesante disponer de un programa de visualización de modelos 3D, con el que veremos los resultados. En Windows se puede usar el 3D Builder que se incluye con Windows 10. En GNU/Linux se puede usar Meshlab.
Ejemplo de aplicación
Por poner un ejemplo práctico del proceso, vamos a volver sobre el ejemplo del gasterópodo que queremos usar en la clase de biología. Nos han prestado uno y lo preparamos todo para fotografiarlo.
Cámara, trípode, peana giratoria y una tela roja para homogeneizar el fondo.
Hemos obtenido 36 fotografías, haciendo barridos 360º (vuelta completa a la peana) en 3 ángulos de cámara diferentes. El resultado tiene este aspecto:
Una de las fotos
Comparto las fotos, por si alguien quiere hacer pruebas:
Una vez hemos hecho las fotos, las arrastramos en el Meshroom:
Arrastrar y soltar
Ahora pulsamos el botón Start para que empiece el proceso. Como se puede ver, en la parte inferior hay un grafo en el que se detallan todos los pasos que hace el programa. Si os fijáis, los pasos son los mismos que he detallado más arriba.
Durante el proceso veremos como el programa va pasando por los diferentes cuadrados, cambiando de color: naranja significa en proceso, verde, paso completo. Si sale rojo es porque el paso ha fallado.
El proceso puede tardar minutos u horas. Dependerá del número y tamaño de las imágenes, de la potencia del ordenador y de la presencia o no de una tarjeta gráfica.
Si todo va bien, podremos ver la nube de puntos generada en el área de representación de la derecha.
La nube de puntos
Un detalle muy interesante de esa visualización es que también nos muestra la ubicación de la cámara que ha calculado para cada imagen. Si os fijáis, al final lo que se ha intentado con los diferentes barridos es emular una semiesfera.
Para ver el resultado del proceso, es decir, el objeto generado, hacemos clic derecho sobre el último nodo (Texturing) y seleccionamos Open folder. Esto abrirá la carpeta en la que está el archivo OBJ que ha generado Meshroom.
Esto abre el directorio donde está el archivo resultante
Si abrimos el archivo OBJ en el Meshlab, veremos como ha capturado a la perfección la forma del caparazón:
Faltaría eliminar la base negra con el mismo programa
Ahora, puedo llevar este archivo OBJ a la impresora 3D para replicarlo tantas veces como quiera:
El objeto «fotocopiado»
También puedo subir el archivo OBJ a algún repositorio de internet para compartirlo o visualizarlo de forma interactiva en diferentes medios, como este blog:
En caso de no tener un ordenador con tarjeta gráfica CUDA enabled, lee esta entrada para ver como poder obtener buenos resultados con fotogrametria.
Conclusiones
La fotogrametría es un proceso maduro para la generación de modelos en 3D a partir de objetos del mundo real, habitualmente vinculada a la generación de mapas en 3D. Sin embargo, como hemos visto, puede ser fácilmente utilizada en el aula para generar objetos de aprendizaje, ya sea gracias a la obtención de un modelo 3D interactivo o bien por la posibilidad de replicar objetos.
Sin embargo, el proceso, aunque aparentemente sencillo y accesible gracias a la existencia de software libre multiplataforma, requiere de una cierta mano para la fotografía, ya que la toma de imágenes es el paso clave para obtener buenos resultados. Lo que, en realidad, es una buena excusa para introducir en el aula algunas nociones sobre la fotografía digital, lo que tampoco está de más.
Si hay algo que parece que tiene un futuro prometedor son las impresoras 3D, si bien, hoy por hoy, todavía no han acabado de despegar en el mercado doméstico, principalmente por sus elevados precios. En el siguiente enlace, un usuario poseedor de una de estas máquinas explica su funcionamiento y primeras pruebas con el dispositivo. Los resultados son sorprendentes.
Así de simple: El coche pasa del diseño realizado en el ordenador a la impresora 3D, donde sus piezas son generadas. Eso simplifica enormemente el proceso de fabricación y muestra, una vez más, el potencial que hay en las impresoras 3D. De momento Urbee es un prototipo, pero sólo la revolucionaria concepción del proyecto abre un vía que puede cambiar definitivamente los procesos de fabricación del mundo actual.