Archivo de la etiqueta: 3D

Escaneando gigantes

El escaneado de objetos mediante la técnica de la fotogrametría ha sido un tema sobre el que han tratado varias entradas de este blog. También se ha presentado con anterioridad un proceso para convertir un vídeo de unos pocos segundos a un conjunto de imágenes superpuestas, ideal para procesar mediante esta técnica esculturas al aire libre o, incluso, piezas arquitectónicas.

Sin embargo, hasta ahora, los escaneados a partir de vídeo se habían hecho con vídeos de pocos minutos, generalmente con un solo barrido del objeto, que daban como resultados objetos con pocos detalles o, en el caso de objetos de grandes dimensiones, zonas poco definidos, debido a la dificultad de acceso a las zonas más elevadas.

En este punto, se me presentó la oportunidad de realizar el escaneado del Baró de Patraix, un «gegant» de unos 4m de altura, creado or los artistas falleros Ceballos y Sanabria, con la colaboración del modisto Francis Montesinos para la Asociación Vecinal de Patraix y que forma parte de la tradición festiva de dicho barrio valenciano.

Gegant i geganta expuestos en el Complejo Deportivo Patraix

Escaneando un objeto de grandes dimensiones

El objetivo del escaneado era obtener un versión digital del mismo para que se pudiesen hacer réplicas a diversa escala, por lo que debía de tener el suficiente nivel de detalle para que las impresiones quedasen bien.

Dadas las grandes dimensiones del objeto, la opción del vídeo envolvente parecía la más adecuada, eso sí, con un vídeo más extenso que los que había hecho hasta el momento, que fuese capaz de capturar todos los detalles, especialmente del traje y las manos.

Así, llegados a este punto, cabían dos posibilidades para realizar el vídeo:

  • Hacer girar al gigante (alguien dentro dando vueltas sobre sí mismo) y usar una escalera para hacer llegar la cámara a las partes más elevadas de la figura.
  • Dejar el gigante fijo y girar a su alrededor haciendo el vídeo.

Puesto que lo que más costaba era sacar al gigante de su ubicación permanente (si os interesa, lo podéis visitar con total libertad en el Complejo Deportivo Patraix), se optó por hacer el escaneado de las dos maneras. De ese modo, sacamos al gigante a la calle, para aprovechar la iluminación natural, sin sol directo y procedimos a la realización del escaneado por los dos métodos.

Veamos los resultados obtenidos con cada una de las dos técnicas.

Escaneado girando el objeto

Este método es más similar al utilizado en objetos pequeños, en el que se pone el objeto sobre una peana, la cámara en un trípode y se va fotografiando a medida que se gira la peana. Cuando se da una vuelta entera, se cambia el ángulo de la cámara y se vuelve a empezar.

En este caso, no había peana, sino una persona dentro del gigante que iba dando vueltas sobre sí mismo mientras yo, con el móvil iba capturando el vídeo, subiendo y bajando por una escalera cada vez que se completaba una vuelta.

Performance callejero

El resultado fue un vídeo de 3 minutos del que se obtuvieron 860 imágenes JPG.

El procesado de dichas imágenes se alargo durante más de 3 días y, pese a que las fotos eran bastante buenas, el resultado fue poco satisfactorio ya que la reconstrucción del modelo 3D dejó algunas zonas mal definidas, como la frente o las mejillas.

Estas imperfecciones se pueden corregir con un poco de paciencia siguiendo las técnicas explicadas en esta otra entrada, pero resultaba algo frustrante que, después de más de 3 días procesando, se hubiese obtenido un modelo con tantas imperfecciones.

Hay que decir que, en este caso, la iluminación juega en nuestra contra ya que al girar el modelo, la luz incide de forma diferente en cada posición y eso confunde mucho al programa que procesa las imágenes. Por eso, como veremos, el resultado con el siguiente sistema, es mucho más satisfactorio.

Escaneado girando la cámara alrededor del objeto

En esta otra variante, el registro del vídeo se hace dejando el objeto fijo y moviendo la cámara alrededor, de forma envolvente. De este modo, las condiciones de iluminación no cambian y lo único que hay que procurar es no hacer sombra sobre el objeto. Como he comentado, el gigante estaba en una calle sin sol directo y, por tanto, eso no era un problema.

Lo que sí era un problema era llegar con el móvil a las partes más elevadas (la cabeza) para registrar correctamente todas las partes de la figura. En este caso, como era la cámara la que daba vueltas al objeto, la opción de la escalera ya no era viable. Hacía falta algo que permitiese estirar el brazo por encima de los dos metros y medio, algo que además, tuviese una sujeción adecuada para evitar que el teléfono movil pudiese caerse. Vaya, que hacía falta un palo selfie.

Así pues, con la ayuda del palo selfie, hice el vídeo alrededor del gigante, con una duración de 2’45min y del que se han obtenido 828 imágenes JPG. El procesado de las imágenes duró en este caso poco más de 8h y, como se puede apreciar a continación, con unos resultados mucho más interesantes:

He de decir que, pese a todo, me hubiese hecho falta un palo selfie más largo, ya que el que tenía no llegaba correctamente a la parte superior de la cabeza. Si os fijáis, al modelo se le ha generado un tupé un poco más exagerado que el del original.

Respecto a la duración del proceso, he de reconocer que, en el primer caso, cometí el error de configurar el programa en alta calidad, lo que dilató el proceso y no mejoró precisamente el acabado. En el segundo caso, se utilizaron las opciones por defecto del programa, reduciendo significativamente el tiempo y también mejorando el resultado (las imágenes eran mejores, al mantenerse fija la iluminación y reflejos).

Imprimiendo

Una vez obtenido el modelo en 3D, había que pasar a la siguiente fase, la de la impresión. Para ello, preparé varias variantes del modelo, cortándolo más arriba o más abajo, siguiendo las instrucciones comentadas en esta otra entrada. Mi preocupación principal era la impresión de las manos y, en particular, de los dedos, al ser la parte más delicada del modelo.

Efectivamente, las primeras pruebas acabaron con un gigante con los dedos mutilados:

Impresión con PLA multicolor. Unas 12h de impresión.

Las extremidades, al sobresalir, necesitan de unos soportes para que se puedan imprimir correctamente, pero al intentar quitar los soportes, estos quedan ligeramente pegados a la pieza y las partes más sensibles acaban yéndose con el soporte. Este era el caso de los dedos meñiques.

Para tratar de reducir esa problemática, hice dos modificaciones en las opciones de la generación del laminador:

  • Cambiar la estructura de soporte a la tipo «Árbol». Esto genera soportes menos aparatosos, haciendo más fácil su eliminación.
  • Cambiar «Colocación de soporte» a «Tocando a la placa», para que solo generase soportes sobre la placa y no sobre la misma figura.
Opciones avanzadas de configuración de soporte

Tras volver a imprimir con estos ajustes, aunque el soporte se pudo eliminar con más facilidad, los dedos meñiques siguieron siendo víctimas del proceso, ya que seguía habiendo partes que era difícil eliminar sin romper el dedo.

Impresión con soporte en árbol en PLA azul. Unas 8h.

Hay que decir que, en este caso, la fragilidad de los dedos tenía que ver con las dimensiones de la impresión. Al trabajar con una impresora doméstica pequeña, la pieza no se podía hacer muy grande y, por tanto, los detalles quedaban más pequeños. Quizá en una impresión más grande, los dedos tendrían mayor solidez y no se hiubiesen roto con tanta facilidad.

Decidí abordar el problema de otra manera: cambiar la posición de impresión de la figura para evitar que se tuviesen que hacer soportes en las manos. Para ello tumbé la figura unos 80º, de modo que las manos y los dedos quedasen siempre por encima de la capa anterior. En este caso, todos los soportes irían a la espalda de la figura, que al ser sólida no supondría ningún problema al «romper» los soportes.

El resultado, en este caso, sí que fue el esperado:

Impresión en PLA azul de la pieza tumbada. Unas 12h de impresión.

Como se puede apreciar en la siguiente imagen, una vez quitados los soportes, están todos los dedos en su sitio:

1,2, 3, 4 y… 5!

Para completar, realicé una impresión del modelo sin las manos, de hombros para arriba, para poder apreciar los detalles de la cara:

De nuevo, utilicé el soporte en árbol. Unas 6h de impresión.

Este es el resultado:

Conclusiones

El escaneado de piezas grandes usando la técnica del vídeo da unos resultados más que aceptables, sin embargo, es fundamental tener en cuenta aspectos como la buena iluminación del objeto, evitando los reflejos y la luz directa, así como los cambios que pudiesen derivarse de mover el modelo. Es mejor que se mueva la cámara alrededor del objeto a escanear.

Otro aspecto muy importante es poder capturar suficientemente bien los detalles desde todos los ángulos, para evitar que el programa de procesado tenga que inventarse partes. Quizá, para objetos muy grandes, sería interesante valorar el uso de un dron para obtener un vídeo desde todos los ángulos (y con mucho cuidado de que el dron no haga sombra sobre el modelo).

También se ha observado que, como ya sospechaba, aumentar los parámetros de calidad del software que realiza el análisis de las imágenes no suele mejorar el resultado (o incluso lo empeora, al tener que generar mucho más vértices en la malla) y lo que si provoca son tiempos de procesado mucho más largos.

Respecto a la impresión, la eliminación de soportes siempre es muy delicada en piezas complejas y esta no ha sido una excepción. En estos casos, la mejor es opción es tratar de evitar los soportes o ponerlos en zonas más resistentes.

Con todo, los objetivos del proyecto se han cumplido pues se tiene un modelo 3D del que se pueden extraer fácilmente réplicas. Para ello, solo han hecho falta un smartphone, un palo selfie y un ordenador. Una vez más, la técnica de la fotogrametria se muestra como una eficiente y económica técnica para escanear objetos en 3D.

Varias réplicas a partir del modelo generado.

Cómo trocear diseños 3D

Diseñando para imprimir en 3D, en más de una ocasión me he encontrado en la situación en la que el diseño es más grande que la base de impresión. Cuando esto pasa, lo primero que uno piensa es disminuir el tamaño del objeto con el laminador hasta que quepa en la base de impresión, no obstante esto no siempre es posible. Por ejemplo, cuando el diseño incorpora etiquetas en braille, donde las dimensiones se han de mantener.

En el anterior párrafo he enlazado un proyecto que realicé ya hace unos años, en el que diseñamos las líneas de metro de la ciudad de Valencia. El problema que encontramos es que hay líneas de metro con más de 30 paradas y, claro, el diseño no cabía en ninguna impresora. En ese caso, recurrimos a un programa muy sencillo que nos permitía trocear las líneas, previamente diseñadas, en varios tramos para poder imprimirlos y, posteriormente, pegarlos de nuevo con cola de contacto.

Netfabb Basic

Este programa es NetFabb Basic, un programa originalmente gratuito que fue absorvido por Autodesk que, finalmente, lo hizo desaparecer. No obstante, gracias a la comunidad podemos seguir accediendo de forma legal y gratuita a antiguas copias de este programa para Windows (también funciona en GNU/Linux con Wine).

Para descargarlo, hay que acceder al siguiente repositorio:

https://github.com/3DprintFIT/netfabb-basic-download

Pasos para trocear con Netfabb Basic

Vamos paso a paso:

Ejecutamos la aplicación. En el mensaje que nos sale, marcamos la casilla de verificación, esperamos la cuenta atrás y pulsamos Later:

Cargamos el STL a trocear con Open > File

En la sección «Cut», movemos el eje X (puede ser el eje Y o Z, depende de como se haya importado la figura) hasta que la línea de color se ponga en la zona donde queremos hacer el corte (hacer el corte siempre entre dos estaciones)

Pulsamos «Execute Cut». Si nos pregunta el eje, le indicaremos el mismo que hemos usado para definir el punto de corte.

Ahora, quita la opción «Triangulate Cuts» y le damos al botón «Cut»

El resultado de la operación, nos da una advertencia. Vamos a corregirla.

Seleccionamos una de las partes y pulsamos el botón «Repair»

Pulsamos el botón «Automatic repair» (1), después «Execute» (2) y «Apply Repair» (3). En la pregunta que nos hace al darle a Apply repair respondemos «Remove old parts»

Repetimos el proceso de reparado para el otro trozo.

Ahora, guardamos cada uno de los trozos en un STL. LE damos al botón derecho sobre el trozo, seleccionamos Export y luego STL.

Ahora, ya podemos importar los STL generados en Cura o nuestro laminador favorito y encajarlos sin problema en la base de impresión.

Eso sí, cuando la impresión termine, tendremos que volver a juntar las partes usando cola de contacto.

Creando réplicas táctiles de piezas de museo con escaneado e impresión 3D

La fotogrametria se ha convertido en una alternativa muy interesante y eficiente para realizar escaneados en 3D de una manera muy sencilla, a partir de imágenes o vídeos, que se pueden tomar directamente con el teléfono móvil y que se pueden procesar en cualquier equipo, incluso si son poco potentes. Esto, en combinación con una impresora 3D, abre la puerta a una gran diversidad de proyectos de aplicación que, llevados al aula, pueden proporcionar resultados espectaculares.

No es la primera vez que hablo de esto en blog, pero esta ocasión, voy a compartir los resultados de un proyecto educativo llevado a cabo en el aula durante el último año y que ha supuesto la implementación en el aula del proyecto Erasmus+ AMUSING.

Arte táctil

El objetivo de este proyecto es utilizar las técnicas de escaneado e impresión 3D en el aula para poder generar réplicas de piezas de museo, para que las personas con discapacidad visual puedan acceder de forma táctil a ellas. De este modo, el alumnado no solo adquiere destrezas en las técnicas para conseguirlo, sino que aprende sobre la propia pieza tratada, al tiempo que empatiza con las personas con discapacidad visual y, lo que no es menos importante, genera un recurso que ayuda a mejorar su integración. Todos ganan en una actividad donde el enfoque ApS es evidente.

A la hora de plantear como se podía llevar este proyecto al aula, era importante que el alumnado tuviese una interés académico respecto a la pieza que iba a procesar. No se trataba simplemente de replicar una pieza, sino que tendría que hacer un análisis formal de la misma para ser capaz de explicarlo táctilmente a la persona que va acceder a dicho recurso.

En efecto, al igual que pasa con el sentido de la vista, por muy entrenado que esté el sentido del tacto, no todo se puede apreciar a la primera y hace falta que alguien te explique mientras exploras para captar los matices. Cualquiera que haya hecho una visita guiada a un museo, se hará una idea de lo que hablo. Y si la visita ha sido a un museo táctil, más aún.

Imagen
Explicando un altorelieve en el museo táctil de Atenas. Después nos intercambiamos los papeles.

Por ello, la decisión de implicar al departamento de Artes del centro parecía evidente: además, la propuesta les resultó muy interesante, pues en el bachillerato artístico tienen una asignatura de volumen donde la fotogrametria encaja muy bien. Y así es como entró en escena el alumnado de 1º de bachillerato de Artes.

Taller de fotogrametría

Una cosa que llama la atención al realizar un taller de fotogrametría con alumnado del bachillerato artístico es que, a diferencia de en otras ocasiones el que se había realizado el taller esta vez, la técnica pasaba a un segundo plano (era un medio) mientras que la pieza y sus características cobraban mayor protagonismo.

Así, tras una breve explicación sobre los principios de la fotogrametria y sobre el proceso para la toma de imágenes, la sesión práctica arrancó con un gran entusiasmo, con muchas piezas artísticas del departamento – y también aportadas por el alumnado- sobre las peanas, que, foto a foto, fueron reduciendo el espacio libre en las memorias de los teléfonos móviles de los y las participantes.

Un poco de teoría

Y mucha práctica

Los resultados fueron impresionantes. En un par de horas se escanearon varios objetos, de algunos de ellos se obtuvieron modelos tan espectaculares como el que se enlaza a continuación:

Torso by Carlos M on Sketchfab

La impresión de dichos diseños también resultó muy llamativa:

Ejemplos de réplicas impresas a partir de las fotos tomadas en el taller

La realización de esta actividad fue recogida en una noticia en el suplemento Aula del diario Levante EMV.

El resultado del taller constataba la viabilidad del proyecto en su conjunto; era posible generar réplicas de piezas artísticas con esta tecnología. Ahora sólo faltaba aplicar el mismo proceso a piezas artísticas de los fondos de un museo. Pero para eso, habría que esperar al curso siguiente.

Tarde en el museo

Entre una cosa y otra, el curso ya había pasado y el alumnado que realizó el taller estaba ya en 2º de Bachillerato. Por ello, era importante reanudar el proyecto cuanto antes para que no coincidiese con los meses previos a la PAU, cuando están de exámenes y completamente centrados en el examen de acceso universitario.

El siguiente paso era contactar con un museo para organizar la actividad. Afortunadamente, el Ayuntamiento de Valencia también participaba en el proyecto Erasmus+ AMUSING, por lo que lo más inmediato era tratar de coordinar la actividad con alguno de sus museos.

Entre ellos, La Casa Museu Benlliure resultaba especialmente interesante, ya que el alumnado que iba a hacer la actividad tenía, precisamente, a ese autor como uno de los que estaban preparando para las PAU.

Así que, se estableció contacto con la dirección del museo para plantear la colaboración y realizar una visita previa, junto a su director, para seleccionar las posibles piezas que se podrían escanear. Principalmente esculturas de Mariano Benlliure o de su colección. En paralelo, se realizó una instancia oficial al Ayuntamiento para solicitar acceso a las fuentes del museo.

En este punto, cabe aclarar que no todas las piezas eran susceptibles de ser escaneadas debido a aspectos relacionados con los derechos de autor y propiedad intelectual. Es por ello, que se optó por escanear piezas que no tuviesen ese problema. Lamentablemente, muy pocas de ellas eran de Mariano Benlliure. No obstante, era una selección muy interesante, pues combinaba esculturas de diferentes estilos, épocas y materiales.

Otro criterio que se siguió para elegir las piezas fue el de que fuesen fáciles de escanear; cuerpos cerrados, sin detalles muy pequeños y de materiales mate.

Con los permisos concedidos y las piezas ya preseleccionadas, se organizó una visita con el alumnado al museo. Primero se hizo una visita guiada a la exposición permanente. Después, los alumnos fueron a una sala especial donde estaban preparadas las piezas que se habían seleccionado y montaron todo el equipamiento (que se llevó desde el centro en un práctico carrito de la compra) para fotografiar las piezas.

Además de las fotos del alumnado, se hicieron algunos vídeos envolventes de algunos objetos disponibles en el jardín del museo, para su posterior procesado.

La magia de la fotogrametría

De nuevo en el instituto, el alumnado procesó las imágenes con el software de fotogrametría, tal y como habían aprendido en el curso anterior.

Como actividad alternativa, se planteó un taller sobre fotogrametria con Google Colab con el alumnado del ciclo formativo de grado medio de informática, utilizando algunos de los sets de fotos capturados en el museo. Este tipo de proyectos siempre resultan mucho más enriquecedores cuando se integran a diferentes grupos y etapas, especialmente cuando cada grupo realiza un tarea específica diferente.

Uno detrás de otro, todas las esculturas fotografiadas fueron procesadas con el software de fotogrametría y se obtuvieron los modelos en 3D. De todas las piezas procesadas, solo de una no se pudo obtener el modelo correspondiente, lo que da una idea de la efectividad de la técnica. También se procesaron los vídeos. Los resultados, de nuevo, fueron espectaculares:

AMUSING Casa Museu Benlliure by Carlos M on Sketchfab

A continuación, al igual que se había hecho anteriormente, se fueron imprimiendo con la impresora 3D las piezas escaneadas. Este proceso se prolongó durante varias semanas.

Imagen
Exposición de replicas

Hay que decir que, al realizar la impresión salieron a la luz algunos defectos en el reconocimiento del escaneado 3D que no se aprecian en el modelo gracias a la textura. Esto ocurre, principalmente en las piezas de materiales más brillantes (como, por ejemplo, una que era de madera pulida). Por otro lado, las piezas que mejor salieron fueron las que eran de materiales más mate (especialmente los de barro o arcilla).

Explicación táctil

El proyecto no terminaba en la generación de la réplica. Como he explicado anteriormente, para acceder a una pieza artística mediante el sentido del tacto, no basta con tocar la pieza; necesitas que alguien guíe y explique la información que proporcionan los dedos. Es por ello, que el paso final requería de ese análisis de la pieza y del diseño de esa exploración.

Para ello, se solicitó a La Casa Museu Benlliure una relación con información sobre las piezas escaneadas, obteniendo un listado con datos sobre la autoría, técnica y el año de creación. Con esta información como punto de partida, el alumnado realizó una tarea de investigación y documentación, que plasmaron en un guion de exploración táctil.

Es entonces cuando llega el momento del paso final, en el que hay que probar los recursos generados. Para ello, se contactó con Isabel, para hablarle del proyecto y proponerle colaborar. Isabel es una persona ciega que también se dedica al apasionante mundo de la docencia y que ya había colaborado previamente en el proyecto de implementación del PRIN3D. Ella accedió a hacer esta visita virtual al Museu Benlliure desde las aulas del IES, guiada por el alumnado de bachillerato.

El alumnado había preparado por grupos los guiones de explicación, hablando de la autoría, el contexto, la técnica, el estilo, describiendo la pieza e, incluso, usando piezas del material original de la obra para trasladar la sensación táctil del original (rugosidad, calidez…).

Una vez estuvieron preparados los guiones, se organizó una sesión en la que Isabel vendría al aula y los diferentes grupos le guiarían a través de sus piezas. Ella, además, proporcionaría su feedback sobre la pieza y sobre los diferentes aspectos de la exploración. De nuevo, aprovecho estas líneas para reiterar mi agradecimiento por su disposición y comentarios.

La sesión supuso una gran experiencia para todas las partes y un magnífico final para un proyecto en el que se había trabajado de forma intermitente, durante dos cursos académicos. Más de un año. Se dice pronto.

La experiencia fue recogida por el suplemento Aula del Levante-EMV.

Conclusiones

El proyecto AMUSING, como en su dia fue el PRINT3D, ha supuesto un marco de trabajo ideal para plantear actividades con enfoque ApS que permitan desarrollar las competencias técnicas del alumnado en el uso de las nuevas tecnologías, en campos de aplicación que permiten la integración de personas con discapacidad visual, empatizando así con su realidad social. Además de todo esto, el hecho de trabajar con piezas de la Casa Museo de uno de los autores que están trabajando en el aula, genera un punto de motivación adicional para el alumnado participante.

Así, nos encontramos ante un proyecto multidimensional, en el que todas las partes implicadas hemos obtenido un enriquecimiento, técnico, cultural y personal significativo. Un ejemplo de más de lo potente que puede ser el enfoque de Aprendizaje Servicio en el aula.

No obstante, hay que mencionar también algunos aspectos susceptibles de mejora, principalmente relacionados con las limitaciones del escaneado y la impresión 3D. Respecto a lo primero, hay que remarcar que las piezas que han salido bien han sido aquellas que no tenían una volumetría compleja y cuyo material era mate (principalmente las piezas de barro, yeso o similar). El resto de piezas presentaban algunos defectos no presentes en el original, provocados por brillos o reflejos capturados por la cámara y que el software de fotogrametría no ha sabido interpretar. Esto es podría solucionar realizando un proceso de postproceso sobre el modelo 3D, que requeriría una mayor dedicación en la formación del alumnado en el uso de software específico.

Por otro lado, la impresión 3D, de nuevo, supone una limitación importante. Las impresoras con las que trabajamos en el aula están muy limitadas en lo que refiere al tamaño que permiten imprimir. Por ello, prácticamente ninguna pieza ha podido ser impresa a tamaño real. Esto se podría solucionar troceando la pieza (de nuevo, más formación en el uso de software específico) e imprimiendo por partes. Sin embargo, esta solución no ha dado buenos resultados en el proyecto, ya que el punto de unión de las diferentes partes se detecta en la exploración táctil y genera «ruido» en la percepción de la obra.

También, y como siempre, los atascos y fallos de la impresora han generados periodos muy largos de impresión. Cada pieza tardaba varios días en imprimirse y si algo fallaba había que volver a empezar desde el principio, desperdiciando mucho tiempo (y PLA). Además de eso, en ocasiones, el PLA defectuoso creaba rugosidades en la pieza que afectaban a la exploración táctil. Esto último se podría solucionar haciendo un tratamiento de la pieza con alguna resina específica.

Con todo, como se ha explicado con anterioridad, el proyecto ha resultado muy satisfactorio y lo cierto es que con unos recursos muy al alcance de todos y muy pocos conocimientos técnicos, es posible conseguir unos resultados increíbles. Estamos hablando de llevar cualquier pieza de museo a cualquier aula del mundo. Y eso no es cualquier cosa.

Etiquetas braille en Tinkercad

El uso de la impresión 3D para generar elementos accesibles para las personas con discapacidad visual ha sido un tema habitual en este blog en los últimos años. Se han hecho tutoriales de herramientas, se han compartido recursos y objetos de aprendizaje, pero también, se han presentado algunas implementaciones en el aula de proyectos basados en ApS para mejorar la inclusión en el entorno escolar.

Uno de los denominadores comunes de estas implementaciones era el uso de Tinkercad como herramienta de diseño, gracias a su sencillez, versatilidad y al hecho de que es multiplataforma (se ejecuta desde el navegador) y es de acceso gratuito, lo que habilita al alumnado a poder seguir utilizándolo en otros contextos, académicos o no.

El otro es Touchsee.me, una herramienta para la generación de etiquetas braille online que resulta fundamental para dotar a los objetos generados de información táctil. De nuevo, se trata de una herramienta accesible desde el navegador en la que, simplemente seleccionando el idioma y escribiendo un texto, se genera el archivo STL listo-para-imprimir con el texto en braille.

Escribir, descargar e imprimir

Una vez descargado, la etiqueta STL se puede llevar al laminador para imprimir. Mi recomendación es hacer la impresión en vertical, ya que los puntos quedan más suaves (y, por tanto, agradables al tacto) que se se imprime tumbada.

En 9 minutos tenemos la etiqueta braille impresa

Ahora bien, el problema llega cuando intentamos integrar esa etiqueta en algún diseño más complejo. Por ejemplo, imaginemos que queremos hacer una placa que combine un texto en altorrelieve con el braille, como el de la imagen.

Cartel accesible de aula

El diseño es trivial en Tinkercad: basta con crear la superfície, añadir el texto (en sans) e importar la etiqueta generada con Touchsee.me.

Sin embargo, cuando importamos la etiqueta, nos encontramos con el siguiente resultado:

Resultado de importar una etiqueta de Touchsee.me a Tinkercad

Parece que en el proceso de importación algo no funciona; la manera en la que touchsee.me genera el STL parece no gustar a Tinkercad y el resultando es una etiqueta braille que, en el mejor de los casos, resultará confusa de leer de forma táctil. Y esto presenta un grave problema para el objetivo del proyecto en uno de los elementos más importantes.

Pero no desesperemos, como siempre hay vías alternativas. Veamos algunas:

Solución #1

Una primera aproximación a la solución del problema, seria la de imprimir la eqtiqueta por un lado y, en Tinkercad, simplemente dejarlo todo preparado para agregarla al diseño tras la impresión. Esto es, haríamos un hueco para encajar la etiqueta una vez impresas ambas piezas.

Diseño de placa con hueco para la etiqueta braille

Posteriormente, pegamos en el hueco la etiqueta:

Manualidades

Esta, aunque resuelve el problema, tiene algunos inconvenientes. Como que el diseño es más complejo, ya que la etiqueta ha de encajar perfectamente. Si nos quedamos cortos, habrá que arriesgarse a lijar la etiqueta, si nos pasamos, sobrará hueco, dificultando la lectura. Además, la etiqueta braille se puede caer o soltar con el tiempo.

Solución #2

Una segunda solución pasa por tratar de corregir los defectos en la pieza generada por Touchsee.me que provocan la mala importación en Tinkercad.

Lo que haremos será reparar la etiqueta braille con un programa de diseño 3D, llamado Meshlab. Meshlab es gratuito, de código abierto y está disponible para todas las plataformas:

https://www.meshlab.net/#download

Instalamos Meshlab, e importamos el STL con el braille.

Una etiqueta de Touchsee.me abierta con Meshlab

Comprobamos como en Meshlab el STL se ve bien, pero aún así hay que corregirlo.

Seleccionamos Filters > Cleaning and repairing > Snap Missmatched borders

Esta opción repara bordes que estén ligeramente desplazados y que pueden causar una mala importación en Tinkercad, creando nuevos vértices.

Snap Mismatched Borders

Dejamos las opciones por defecto y le damos varias veces a Apply, para que cree nuevos vértices que puedan dar a Tinkercad más información para reconstruir correctamente el STL.

Podemos guiarnos por el mensaje que aparece en el cuadro inferior derecho (Cuando veamos que el filtro ya no hace nada, que aparece 0).

El log nos dice lo que hace el filtro en cada paso

Cerramos el diálogo, y exportamos el STL.

Ahora, abrimos el STL corregido con Tinkercad, veremos como el resultado ha mejorado considerablemente:

Importación perfecta!

Este método no es 100% efectivo pero, en algunos casos como el del ejemplo, he conseguido una importación casi perfecta.

Solución #3

Finalmente, lo que podemos hacer es usar otra herramienta para generar el STL con el braille. Lo cierto es que Touchsee.me es la más completa de todas las que he encontrado, pero tiene este pequeño inconveniente de la importación a Tinkercad.

Una alternativa que es completamente compatible con Tinkercad es una herramienta llamada «Text to 3d printable Braille» y a la que podemos acceder desde el siguiente enlace:

http://v01pe.github.io/Text2Braille3d/

El funcionamiento no es tan intuitivo como el de Touchsee.me y además está en alemán. Pero, como veremos, tampoco resulta complicado hacerse con su funcionamiento:

Text to 3d printable Braille

El diseño de la aplicación tiene dos partes, la parte superior con una previsualización de la etiqueta a generar y la parte inferior, con los parámetros que se pueden modificar.

Para generar la etiqueta hay que escribir en Text lo que queremos codificar (obvio)

Las opciones que nos da son las siguientes:

  • Großbuchstaben zulassen: Permitir mayúsculas. Si lo activamos, codificará las mayúsculas (recomendado)
  • Kontraktionen: Aplica contracciones para simplicar la longitud. Yo lo desactivo.
  • Direkte Konvertierung: Conversión directa. Desactivado por defecto.

Si pulsamos en Details einstellen veremos las opciones avanzadas. Entre otras cosas, podemos modificar el tamaño de la placa (Form-Größe), la altura del punto (Punkt-Höhe), el diámetro del punto (Punkt-Durchmesser), el grosor de la placa (Platten-Stärke) y la distancia entre las filas (Rand):

Además, podemos deshabilitar la muesca de referencia (Referenz Eck), aunque no lo recomiendo ya que nos ayudará a identificar el sentido de la lectura de la etiqueta, lo que será muy práctico a la hora de posicionarla en Tinkercad.

Es eso, o tener algunas nociones para interpretar el braille.

Lo que si os recomiendo deshabilitar la generación de soportes (Stützen generieren) ya que si no se pretende imprimir en vertical la etiqueta, como es nuestro caso, no son de utilidad.

Soportes

Una vez configurado todo, hay que darle al botón que hay en la parte inferior:

Pulsar primero aquí

Eso cargará nuestro diseño en la vista previa. Una vez hayamos generado el modelo presionando el botón anterior, ya podemos darle a generar el STL para su descarga. Si no lo hacemos en ese orden, nos descargaremos el diseño precargado no el que nosotros queremos.

Cuando le demos a Generate STL el botón se convertirá en el enlace de descarga del STL

El STL descargado se puede importar al Tinkercad sin problemas:

Resultado de la importación en Tinkercad

De este modo, ya podemos usar el braille en nuestros diseños con Tinkercad.

Unir, exportar e imprimir.

Postprocesado básico tras el escaneado 3D

En anteriores entradas, he compartido procedimientos y técnicas para escanear objetos en 3D utilizando fotogrametría a partir de imágenes o vídeos. La sencillez del proceso – que incluso puede ser realizado con la cámara de un teléfono móvil – y los llamativos resultados que produce – incluso en equipos poco potentes – hacen que sea una interesante opción para introducir estas técnicas en el aula para tratar contenidos de forma inclusiva, de acuerdo al planteamiento del proyecto Erasmus+ AMUSING.

Pero, por sorprendentes que sean los resultados, si los miramos de cerca con el visor 3D, podremos apreciar pequeñas imperfecciones que ha cometido el programa de escaneado en 3D al componer el volumen a partir de las imágenes. Estas imperfecciones suelen estar disimuladas por la textura, por lo que pasan desapercibidas en un visor 3D, sin embargo, si nuestro objetivo es imprimir la pieza, estas imperfecciones o ruido 3D, puede trasladarse al objeto y, por tanto al tacto.

Por ejemplo, veamos la siguiente escultura de un rostro escaneada por fotogrametria:

Si nos acercamos al rostro:

Aparentemente, el modelo parece bastante fidedigno con el original, por lo menos en el visor. Sin embargo, si cambiamos las opciones de iluminación activando el shading, veremos que, en realidad, la textura nos está engañando. En la siguiente imagen se aprecia como, en realidad el programa de escaneado ha tenido problemas para reconstruir la parte interior del rostro, al tener menos fotografías que capturasen correctamente esa zona.

Esas imperfecciones se trasladarían al modelo impreso, alejando la experiencia táctil del modelo original.

Como ya se ha comentado en este blog, el objetivo del proyecto Erasmus+ AMUSING es crear réplicas de objetos de museos para poder ser manipuladas y así, entre otras ventajas, poder ser explicadas a las personas con discapacidad visual. Así, que es necesario eliminar en la medida de lo posible esas imperfecciones que puedan despistar sobre la verdadera forma del objeto replicado.

En esta entrada, explicaré algunas técnicas sencillas que se pueden emplear para optimizar el objeto de cara a su impresión.

Autodesk Meshmixer

El programa que se empleará para procesar el modelo es el Autdesk Meshmixer. El programa es gratuito y se puede obtener desde su web:

https://www.meshmixer.com/

Está disponible para Windows y Mac OSX, si bien, la versión de Windows puede ejecutarse bajo GNU/Linux con Wine con los drivers Vulkan.

Una vez instalado, lo ponemos en marcha y cargamos el archivo OBJ que queramos tratar.

Corrección de errores

Un primer paso necesario, incluso si no se pretende imprimir la pieza, es corregir todos los errores que se puedan haber producido al tejer la malla durante el proceso de fotogrametría. Esto es, triángulos mal cerrados, o cosas que se pueden ver en la anterior captura, zonas sueltas o la apertura del modelo por la parte en la que no hay información.

Para resolver todos estos problemas de forma sencilla, seleccionamos la opción Analysis y después en Inspector.

Esto nos marcará todos los errores detectados en rosa (zonas desconectadas ), azul (zonas no cerradas) y rojo (triángulos imposibles) y nos dará la opción de corregirlos: Auto repair all.

Al pulsar esta opción, vemos como ha desaparecido la zona suelta y se ha cerrado el modelo.

Eliminar zonas no deseadas

Una función muy importante que nos permite hacer el programa es poder descartar zonas del modelo. Esto es útil porque es habitual que los programas de fotogrametria modelen más de lo que nos interesa.

Por ejemplo, en nuestro modelo, se pueden apreciar zonas de la pared en la que se encontraba la placa con la escultura:

Una forma de deshacerse de esas partes es usando un corte por plano, que determinará qué parte se queda en el modelo y cuál se descarta.. Para ello, vamos a Edit > Pane Cut

Tenemos que posicionar el plano usando las flechas de colores, que nos permiten mover y rotar el plano. Lo que está en gris es lo que queda fuera y lo que mantiene la textura es lo que quedará tras hacer el corte.

Tras posicionar el plano para que deje fuera la pared, le damos a Accept para que haga el corte.

El resultado se cierra automáticamente, por lo que no hace falta que volvamos a lanzar el inspector.

Posicionar el modelo

Otro aspecto interesante de cara a la impresión es rotar y escalar el modelo para facilitar su posicionamiento en el programa de segmentación de la impresora 3D.

Para ello, Meshmixer nos permite poner en pantalla la base de impresión (View > Show Printer Bed) y transformar el modelo (Edit > Transform):

De nuevo, usamos las flechas para rotar y posicionar. Si queremos redimensionar de manera uniforme, hay que apretar sobre el cuadro blanco que hay en el centro y mover el ratón sin soltar.

Una vez posicionado, le damos a Accept para que se apliquen los cambios de la transformación.

Suavizar superficies

Finalmente, vamos a tratar el objeto para suavizar las imperfecciones. Para ello, seleccionamos Sculpt, opción que nos permite modificar el aspecto del modelo. Como lo único que queremos es suavizar la superfície, seleccionaremos la brocha Shrik Smooth.

Ahora, sobre el modelo, iremos repasando las zonas que queramos suavizar. En cierta manera, es como maquillar al modelo. Podemos cambiar la fuerza y tamaño de la brocha desde las opciones.

Para apreciar el efecto de lo que estamos haciendo, podemos activar para que se vea la malla (View > Show Wireframe). Veremos como, a medida que aplicamos la brocha, la malla se modifica. En este caso, lo que hace es regenerar la zona eliminando los posibles bultos.

Como se puede apreciar en el ejemplo, al aplicar la brocha estamos añadiendo nuevos triángulos, haciendo más complejo el modelo. Puedo reducir este efecto ampliando el tamaño de la brocha (o disminuyendo las dimensiones del modelo para que el tamaño de la brocha sea más grande).

Otra cosa que puedo hacer, una vez haya terminado es simplicar la malla en esa zona usando el pincel AdaptativeReduce o Reduce, que simplifica los triángulos de la zona tratada.

El resultado complementa el suavizado anterior:

Exportar el modelo

Una vez modificado el modelo, lo podemos exportar desde File > Export.

Hay que tener cuidado con el uso de esta herramienta, ya que estamos modificando el resultado del escaneado, Un exceso en el suavizado o la reducción de triángulos puede deformar el objeto escaneado, alejándolo del modelo original. Mi recomendación es ir poco a poco y no suavizar más de lo estrictamente necesario para que desaparezcan picos o irregularidades muy evidentes.

Por ello, es preferible exportar el modelo modificado con otro nombre y no sobreescribir el original, por si tenemos que volver a partir del original en un momento, sobretodo teniendo en cuenta el tiempo que requiere procesar un modelo por fotogrametría.

El resultado es el que se ve a continuación. Las irregularidades han desparecido, dejando la mejilla izquierda sin irregularidades (aunque es cierto que aún podríamos suavizarla un poco más).

Conclusiones

En la entrada hemos visto como realizar algunos ajustes básicos de postprocesado con Meshmixer de una pieza escaneada en 3D para eliminar algunos de los defectos que se puedan derivar del proceso de fotogrametria. Cabe destacar que Meshmixer tiene una gran variedad de herramientas para tratar figuras en 3D, lo que lo convierte en una herramienta indispensable para el escaneado 3D. Además, es gratuita y multiplataforma.

Escaneado 3D a partir de vídeo

Las técnicas de escaneado 3D mediante fotogrametria nos permiten obtener modelos en 3D de objetos del mundo real mediante la toma de una serie de fotografías adyacentes del objeto a modelar. El software de fotogrametría se encargará de encontrar puntos análogos en el conjunto de fotografías, realizando una triangulación que le permita representar el modelo en 3D.

Para que el modelo se pueda generar correctamente, es necesario que las fotografías se puedan solapar. Que todas tengan un poco de la anterior para que el software pueda enlazarlas. Algo similar a lo que hacen los móviles para hacer fotos panorámicas. Eso es difícil de conseguir tomando fotos «a pulso», por lo que se suele montar la cámara en un trípode, poner el objeto en una peana giratoria y se van tomando fotos a medida que se va girando poco a poco el trípode. Luego, subimos un poco el trípode, modificamos el ángulo de enfoque, y volvemos a empezar. Y así se hacen barridos completos con varias alturas y ángulos.

Sin embargo, si lo piensas, una manera de conseguir el mismo efecto sin necesidad de tanto montaje sería hacer un vídeo con los barridos «a mano» y después extraer fotogramas del vídeo de forma automática. Y eso es lo que voy a contar en esta entrada.

Recientemente, he estado en la National Gallery of Art de Vilnius donde decidí hacer algunas pruebas con esta técnica. Para ello, tomé unos vídeos cortos con mi viejo BQ Aquarius de algunas esculturas con la idea de generar modelos en 3D de algunas de las piezas expuestas. Veamos los resultados.

Los vídeos

Como he comentado, los vídeos fueron tomados con un móvil relativamente antiguo, aunque es capaz de grabar en 720p, está lejos de la calidad que se puede obtener con dispositivos más modernos. Traté de hacer un vídeo en el que iba haciendo un barrido de la pieza a escanear, lo que no siempre era fácil, porque la mayoría estaban apoyadas o ubicadas muy cerca de la pared, con lo que no podía dar la vuelta entera. Dependiendo de la pieza, los vídeos oscilan entre 25 y 60s.

Veamos un ejemplo:

Se trata de Nike (1978) de Petras Mazūras. (fichero de vídeo fuente)

Como se puede ver, el vídeo apenas dura unos segundos y se ha hecho un único barrido. La estátua es bastante alta y no disponía de un palo selfie o similar para poder obtener otros ángulos.

Los fotogramas

Una vez en el ordenador, lo que voy a hacer es extraer fotogramas del vídeo para obtener una secuencia de imágenes adyacentes.

Para ello, utilizaré ffmpg, un comando de GNU/Linux para tarbajar con vídeos que proporciona una infinidad de opciones. En este caso, simplemente utilizaré una opción que extrae fotogramas (-r) y le pasaré el número de fotogramas que quiero obtener por segundo. Es tan fácilo como escribir lo siguiente en el terminal (en la misma ruta en la que se encuentra el vídeo):

$ ffmpeg -i nike.MP4 -r 5 img-%03d.png

Lo que hago es invocar el programa, seguido de la opción -i, para indicarle el archivo de entrada (input), que es directamente el archivo con el vídeo que he extraído del móvil. Luego le pongo la opción -r y el valor 5, para decirle que saque 5 fotogramas por cada segundo de vídeo. Los archivos resultantes se generarán en el mismo directorio con los nombres img-001.png, img-002.png… y así sucesivamente.

Para más información sobre el uso del comando ffmpg, consultar el siguiente enlace.

En cualquier caso, comparto el resultado de la operación en un fichero ZIP:

Archivo ZIP con las fotos extraídas del vídeo.

Procesando

Para procesar las imágenes, he utilizado el Metashape con las opciones por defecto. Prácticamente, arrastrar y soltar. El proceso duró poco menos de una hora.

El resultado

Este es el resultado:

Nike, 1978 by Carlos M on Sketchfab

Como se puede ver, al modelo le falta detalle, pero teniendo en cuenta la rapidez con la que se tomó el vídeo y la poca duración del mismo, el resultado es espectacular.

Otros ejemplos

A continuación comparto otros modelos generados siguiendo el mismo procedimiento, todos ellos capturados el mismo día durante la visita al museo (incluyo el archivo de vídeo original por si quieres hacer pruebas):

Figure, 1970 by Carlos M on Sketchfab (fichero de vídeo fuente)

The First Swallows, 1963 by Carlos M on Sketchfab (fichero de vídeo fuente)

The Dance, 1945-1946 by Carlos M on Sketchfab (fichero de vídeo fuente)

Conclusión

Con el proceso expuesto en la entrada se demuestra la facilidad con la que se puede escanear un objeto 3D con la ayuda de un teléfono móvil. Aunque la extracción de fotogramas no consigue imágenes de tanta calidad como la fotografía individual (de hecho, muchos fotogramas eran desechados por el software de fotogrametría por estar borrosos o movidos), el resultado es sorprendente y con una buena cámara y un buen barrido, se pueden conseguir resultados sorprendentes.

Esta técnica es especialmente útil para casos en los que no es posible ubicar el objeto en una peana o cuando es muy grande (por ejemplo, para escanear una estatua en un parque). Sin duda, es una técnica que puede ser muy interesante por su sencillez para trabajarla en el aula o durante una actividad extraescolar.

Bonus

Hablando de estatuas en el parque, este el resultado de procesar con esta técnica un vídeo a un tótem tallado en la madera típico de Lituania que encontramos en un bosque al sur del país. El vídeo era un barrido con vuelta completa al monumento.

Escultura en el bosque by Carlos M on Sketchfab

Recursos didácticos mediante escaneado 3D

En los últimos años he estado utilizando la tecnologia 3D en el aula de diversas maneras, algunas de ellas las he comentado en este blog, pero siempre partiendo del diseño mediante la combinación de formas geométricas en 2D y 3D para crear piezas y objetos para que fuesen impresos y, por tanto, materializados en el mundo real.

Una de las aplicaciones de esta tecnología ha sido la de crear en el aula recursos táctiles que puedan dar servicio a personas con discapacidad visual, de acuerdo a los objetivos del proyecto Erasmus+ PRINT3D.

Por ejemplo, el diseño de unas células en 3D puede suponer un recursos muy práctico para enseñar las partes de una célula de forma táctil en clase de biología.

Células eucariotas y procariotas

Las posibilidades de este campo son muchas y muy variadas, pero el problema llega cuando no se trata de diseñar una abstracción, sino de recrear un objeto real. ¿Cómo representamos táctilmente, por ejemplo, la morfología de la concha de un molusco en una clase de biología?

Fuente: http://www.gastrosoler.com

En este caso, el diseño geométrico se ve muy limitado para ofrecer una solución aceptable.

Es en este punto donde hace su entrada el proyecto Erasmus+ AMUSING, completando a su predecesor PRINT3D a través de invertir el punto de vista: ahora no se trata de trasladar los objetos de la pantalla a la realidad, sino de la realidad a la pantalla.

Efectivamente, este nuevo proyecto pone el foco en el escaneado 3D; Si no podemos diseñar una concha de molusco realista combinando formas geométricas, la obtendremos directamente de la realidad y luego, la compartimos en Internet para que otras personas puedan imprimirla en 3D y utilizarla como recurso en el aula.

Imagen
Una concha escaneada y replicada a varios tamaños y calidades.

Fotogrametría: La clave de todo esto

Lo mejor de todo es que las técnicas de escaneado 3D se encuentran en un momento de madurez muy interesante, lo que las pone al alcance del aula sin necesidad de una gran inversión económica ni de la necesidad de tener unos conocimientos técnicos muy elevados.

En ese sentido, me atrevería a decir que estas técnicas tienen una curva de aprendizaje mucho mas pronunciada que la impresión 3D: se obtienen resultados sorprendentes al poco tiempo de empezar.

La tecnología clave detrás del escaneado 3D del que voy a hablar aquí es la fotogrametria. Según la Wikipedia « es el arte, ciencia y tecnología para la obtención de medidas fiables de objetos físicos y su entorno, a través de grabación, medida e interpretación de imágenes y patrones de energía electromagnética radiante y otros fenómenos”.

Lo cierto es que la fotogrametría ya lleva bastante tiempo entre nosotros y, aunque no nos demos cuenta, está presente en multitud de aplicaciones tecnológicas actuales.

La fotogrametria se usa mucho para la obtención de mapas 3D. Fuente: Wikipedia

De forma muy resumida, se trata de hacer fotos de un objeto desde diferentes ángulos para calcular las diferencias entre las imágenes y así interpretar medidas y, por tanto, la forma.

No es un proceso conceptualmente sencillo, pero afortunadamente, como veremos a continuación, el software actual permite realizarlo de una manera intuitiva sin necesidad de configurar parámetros avanzados.

El proceso con más detalle

Antes de ver el software, vamos a ver los pasos, a grandes rasgos, se realizan para obtener un modelo en 3D a partir de un objeto real.

  • Toma de imágenes: En primer lugar, hay que tomar fotos desde diferentes ángulos. Se recomienda que la iluminación sea buena y la foto esté bien enfocada. Por ello, es recomendable usar un trípode y, si puede ser, ubicar el objeto en una peana giratoria para facilitar su giro. Lo ideal es hacer barridos 360º desde varios ángulos, para capturar todos los detalles del objeto (por ejemplo, con la cámara a 10º, luego a 40º y finalmente a 80º). Es importante que las fotos se solapen unas con otras, por lo que el giro del objeto entre foto y foto, debería de ser inferior a 15º).

Hasta aquí es lo que hacemos nosotros, de lo que viene ahora ya se encarga el programa de fotogrametría cuando le pasamos las fotos.

  • Detección de puntos análogos (Feature extraction): Se analizan las fotos y, gracias a los solapamiento, se detectan los puntos homólogos, es decir, detalles del objeto que aparecen en varias fotos.
  • Comparación de puntos homólogos (Feature matching): Se comparan los puntos homólogos de las diferentes imágenes para encontrar coincidencias, es decir, el mismo punto en diferentes imágenes. Esta es la clave del proceso y de la cantidad de puntos que relacione, dependerá la calidad del modelo.
  • Triangulación (Structure from motion): A partir de los puntos homólogos y de los cambios detectados entre un punto homólogo en una imagen y el mismo punto en otra, se calcula el desplazamiento del objeto y su nube de puntos (coordenadas que definen el volumen del objeto).
  • Creación del mapa denso (Deep map): A partir de la triangulación, se interpolan nuevos puntos homólogos para acabar de completar el modelo y darle mayor detalle a la nube de puntos. Esta fase es la más laboriosa y suele requerir del uso de una tarjeta gráfica.
  • Mallado (Meshing): Una vez interpolado el mapa denso, se teje una malla en 3D, como una estructura de alambre, que recrea el volúmen detectado.
  • Texturizado (Texturing): Es el proceso final en el que se añade a la malla una capa con una imagen generada a partir de las fotografias en las que se le de el aspecto real del objeto.

Y con esto estaría todo, si el programa ha podido trabajar con las fotos proporcionadas, obtendríamos un archivo con extensión OBJ en el que encontraríamos el objeto en 3D.

Ya os adelanto que esto no siempre ocurre y, a veces el programa muestra un error porque no ha podido procesar bien las imágenes. Entonces, hay que descartar sesiones fotográficas enteras por una mala iluminación o enfoque, que hace que el software de fotogrametría no pueda sacar nada en claro del objeto.

Para evitar que eso ocurra, en el siguiente punto, recomiendo el uso de algunos utensilios relativamente fáciles de encontrar para optimizar la toma de fotografías. Pero antes, finalicemos la explicación de este proceso, pues si todo ha ido bien, una vez generado el archivo OBJ, volvemos a tomar protagonismo en un último paso:

  • Revisión del modelo: Tenemos que reparar los posibles errores que aparezcan en el modelo generado: caras sin cerrar, vértices duplicados, etc. Esto lo podemos hacer con cualquier software de edición 3D (Meshlab, Microsoft 3D builder…). La mayoría de ellos incorporan asistentes para reparar el modelo. También en este paso, tenemos que eliminar aquellas zonas del diseño que no sean relevantes y que se han generado en el modelo: partes de la peana, objetos del fondo, etc. Normalmente, basta con seleccionarlos en un programa de edición 3D y darle a la tecla suprimir.

Con esto ya estaría todo, y tendríamos nuestro modelo en 3D para imprimir (enviar el OBJ a Cura 3D) o para compartir (subirlo a un repositorio online como Sketchfab).

Recursos necesarios

Como se ha comentado, la toma de imágenes es un paso crítico que va a afectar a todo el proceso posterior.

Lo ideal es disponer de un mini estudio fotográfico, para conseguir imágenes con la mejor calidad posible. Tampoco hace falta un montaje profesional, aunque cuanto más profesional sea, mejores imágenes se obtendrán.

A continuación, os propongo una serie de elementos, relativamente fáciles de encontrar para montar ese mini estudio con el que empezar con la fotogrametría (con * lo que es imprescindible, el resto es opcional):

  • Cámara digital* No hace falta que sea una reflex, pero si que es muy recomendable que tenga una buena lente y se pueda configurar en modo manual.
  • Trípode: Para evitar vibraciones en la cámara, especialmente, si se ha puesto una velocidad de obturación baja. Nos ayudará también a establecer las diferentes alturas e inclinaciones de cámara con la que haremos el barrido 360º.
  • Plato giratorio: Esto ayuda a realizar el barrido 360º del objeto. Vamos girando el plato de 15º en 15º, y hacemos una foto en cada paso. Puede ser una peana giratoria de una televisión.
  • Caja de luz y focos: nos van a permitir obtener una iluminación uniforme y sin sombras.
  • Un cartón o tela de croma, que ayudará a eliminar detalles del fondo de la imagen y, por tanto, a agilizar el procesado de las imágenes.
  • Ordenador *, si tiene tarjeta gráfica NVidia (compatible con CUDA), mejor.

Como se puede ver, con una buena cámara y un buen ordenador ya podemos trabajar. Y, sí, también valen las cámaras del móvil.

Sobre el software

Una vez tomadas las fotografías, hay pasarlas al software de fotogrametria para que haga la magia.

Existen multitud de programas de fotogrametria, algunos gratuitos, otros de pago. Entre los primeros, cabe destacar Meshroom, que es un software libre multiplataforma bastante versátil, intuitivo y que, además, da muy buenos resultados.

En el siguiente vídeo se puede ver su funcionamiento:

Se puede descargar de forma gratuita desde su web:

Además, tambien es interesante disponer de un programa de visualización de modelos 3D, con el que veremos los resultados. En Windows se puede usar el 3D Builder que se incluye con Windows 10. En GNU/Linux se puede usar Meshlab.

Ejemplo de aplicación

Por poner un ejemplo práctico del proceso, vamos a volver sobre el ejemplo del gasterópodo que queremos usar en la clase de biología. Nos han prestado uno y lo preparamos todo para fotografiarlo.

Cámara, trípode, peana giratoria y una tela roja para homogeneizar el fondo.

Hemos obtenido 36 fotografías, haciendo barridos 360º (vuelta completa a la peana) en 3 ángulos de cámara diferentes. El resultado tiene este aspecto:

Una de las fotos

Comparto las fotos, por si alguien quiere hacer pruebas:

Dataset 36 fotos gasteropodo

Una vez hemos hecho las fotos, las arrastramos en el Meshroom:

Arrastrar y soltar

Ahora pulsamos el botón Start para que empiece el proceso. Como se puede ver, en la parte inferior hay un grafo en el que se detallan todos los pasos que hace el programa. Si os fijáis, los pasos son los mismos que he detallado más arriba.

Durante el proceso veremos como el programa va pasando por los diferentes cuadrados, cambiando de color: naranja significa en proceso, verde, paso completo. Si sale rojo es porque el paso ha fallado.

El proceso puede tardar minutos u horas. Dependerá del número y tamaño de las imágenes, de la potencia del ordenador y de la presencia o no de una tarjeta gráfica.

Si todo va bien, podremos ver la nube de puntos generada en el área de representación de la derecha.

La nube de puntos

Un detalle muy interesante de esa visualización es que también nos muestra la ubicación de la cámara que ha calculado para cada imagen. Si os fijáis, al final lo que se ha intentado con los diferentes barridos es emular una semiesfera.

Para ver el resultado del proceso, es decir, el objeto generado, hacemos clic derecho sobre el último nodo (Texturing) y seleccionamos Open folder. Esto abrirá la carpeta en la que está el archivo OBJ que ha generado Meshroom.

Esto abre el directorio donde está el archivo resultante

Si abrimos el archivo OBJ en el Meshlab, veremos como ha capturado a la perfección la forma del caparazón:

Faltaría eliminar la base negra con el mismo programa

Ahora, puedo llevar este archivo OBJ a la impresora 3D para replicarlo tantas veces como quiera:

El objeto «fotocopiado»

También puedo subir el archivo OBJ a algún repositorio de internet para compartirlo o visualizarlo de forma interactiva en diferentes medios, como este blog:

Gasterópodo Cypraecassis rufa by Carlos M on Sketchfab

En caso de no tener un ordenador con tarjeta gráfica CUDA enabled, lee esta entrada para ver como poder obtener buenos resultados con fotogrametria.

Conclusiones

La fotogrametría es un proceso maduro para la generación de modelos en 3D a partir de objetos del mundo real, habitualmente vinculada a la generación de mapas en 3D. Sin embargo, como hemos visto, puede ser fácilmente utilizada en el aula para generar objetos de aprendizaje, ya sea gracias a la obtención de un modelo 3D interactivo o bien por la posibilidad de replicar objetos.

Sin embargo, el proceso, aunque aparentemente sencillo y accesible gracias a la existencia de software libre multiplataforma, requiere de una cierta mano para la fotografía, ya que la toma de imágenes es el paso clave para obtener buenos resultados. Lo que, en realidad, es una buena excusa para introducir en el aula algunas nociones sobre la fotografía digital, lo que tampoco está de más.

Primeras impresiones de una impresora 3D

Impresora 3D en acción
Impresora 3D en acción

Si hay algo que parece que tiene un futuro prometedor son las impresoras 3D, si bien, hoy por hoy, todavía no han acabado de despegar en el mercado doméstico, principalmente por sus elevados precios. En el siguiente enlace, un usuario poseedor de una de estas máquinas explica su funcionamiento y primeras pruebas con el dispositivo. Los resultados son sorprendentes.

Urbee, un coche ecológico que se fabrica utilizando impresoras 3D

¿El coche del futuro?
¿El coche del futuro?

Así de simple: El coche pasa del diseño realizado en el ordenador a la impresora 3D, donde sus piezas son generadas. Eso simplifica enormemente el proceso de fabricación y muestra, una vez más, el potencial que hay en las impresoras 3D. De momento Urbee es un prototipo, pero sólo la revolucionaria concepción del proyecto abre un vía que puede cambiar definitivamente los procesos de fabricación del mundo actual.