Científicos chinos logran dirigir el vuelo de una paloma por control remoto

El equipo de investigación ha utilizado un técnica electrónica utilizada antes en ratones

EFE - Pekín - 27/02/2007

Científicos chinos de la Universidad de Ciencia y Tecnología de Shandong (provincia situada al noreste de China) han logrado con éxito dirigir por control remoto el vuelo de una paloma. Los investigadores, miembros de un equipo adscrito al Centro de Investigación Tecnológica de Ingeniería Robótica, implantaron una serie de micro-electrodos en el cerebro de las aves; según cuenta la agencia de noticias china Xinhua, esta tecnología ya había sido probada con ratones.

Los implantes estimulaban diferentes zonas del cerebro del animal a través de señales enviadas por los científicos desde un ordenador, y que forzaban a las palomas a volar a la izquierda o a la derecha, y hacia arriba o hacia abajo, según las directrices enviadas.

Se trata del primer experimento de este tipo aplicado con éxito en una paloma, según el jefe de la investigación, Su Xuecheng, quien además ha explicado que los impulsos electrónicos simulan las señales generadas por el cerebro para controlar los movimientos del cuerpo. Junto a sus colegas, Su Xuecheng planea mejorar el dispositivo utilizado en el experimento de la paloma y confía aplicar en el futuro esta tecnología de una forma más práctica.

SACADO DE: Científicos chinos logran dirigir el vuelo de una paloma por control remoto

Cómo corregir la perspectiva en fotografías


Correccion de la perspectiva

Seguro que habrás observado que al hacer una fotografía desde el suelo hacia la parte superior de un objeto alto (inclinando la cámara), como por ejemplo un edificio, el resultado es que el sujeto fotografiado presenta una perspectiva exagerada: las líneas verticales no se mantienen paralelas sino que tienden a converger conforme aumenta la altura. Es lo que se conoce como verticales convergentes y se produce cuando la cámara no está paralela al plano del sujeto; el efecto es más exagerado cuanto más perpendicular se coloque la cámara.

Aunque tal efecto en ocasiones es bienvenido porque incrementa la sensación de altura del objeto en realidad es una distorsión óptica que puede resultar molesto o simplemente no interesa registrar. Para evitarlo hay que mantener la cámara en paralelo al objeto, cosa que no siempre es posible porque impide que el objeto quepa completo en el cuadro. Una forma de solucionar esto es utilizar un objetivo descentrable o de control de perspectiva. Estos objetivos pueden bascular horizontal y/o verticalmente respecto al plano paralelo de la película o del sensor digital de la cámara, de modo que la cámara se puede mantener paralelo al sujeto y es el objetivo el que se gira para abarcar toda la altura. Este tipo de lentes también se utiliza para controlar la profundidad de campo o para fotografiar objetos reflectantes (como por ejemplo espejos) sin que se vez en ellos la cámara. Otro ejemplo de su aplicación es la técnica Tilt-Shift.

Pero salvo que vivas de la fotografía arquitectónica la opción de utilizar objetivos descentrables no es nada práctica ni económica. Afortunadamente también es posible corregir este efecto, al menos en parte, utilizando programas como Photoshop.

Con cualquier versión de Photoshop (y programas similares como Gimp) esta corrección se puede aplicar manejando las opciones disponibles en Editar > Tranformar: Perspectiva, Escalar, Distorsionar, etc. probando hasta dar con la corrección adecuada —las guías son una inestimable ayuda en esta tarea que se hace más fácil con algo de práctica. En general se soluciona estrechando la parte más ancha del objeto, en la foto de ejemplo sería la parte inferior.

Correccion de la perspectiva-Skew

En versiones recientes de Photoshop (CS3 beta en este caso) existe un filtro específico para esto, localizado en Filtros > Distorsionar > Lens Correction,en inglés. Este filtro carga la imagen a corregir en un módulo específico y la cubre con una retícula cuadriculada ajustable para facilitar la tarea. En este módulo las opciones principales (marcadas en verde en la captura) son “Remove Distortion” y “Vertica / Horizontal Perspective”

Modulo Corrección de la perspectiva

Hay que tener en cuenta que manipular la perspectiva de la imagen (en cualquier de los dos métodos, el tradicional o con la opción “Lens Correction”) reduce el área de la fotografía resultante. Esto conviene tenerlo en cuenta para dejar margen en el momento de tomar la foto original.

Aquí ya es cuestión de buscar la correción adecuada teniendo cuidado de no distorsionar de otro modo la imagen. La opción “Vertical Perspective” bascula el plano vertical de la imagen, y en este caso hubo que darle un valor del orden de -40. El plano horizontal apenas hubo que modificarlo, pero sí que fue necesario ajustar “Remove Distortion” para evitar la barriga que se acentuó al modificar el plano vertical. Finalmente se recortó evitando los espacios vacios resultante en la parte inferior y laterales inferiores de la imagen.

Si fuera necesario la opción “Chromatic Aberration” permite corregir en parte las aberraciones cromáticas que pueden producir algunos objetivos, especialmente en los bordes y cuando se utilizan lentes de poca calidad. La opción “Vignette” permite corregir (o añadir) el viñeteado que producen algunos objetivos, especialmente los gran angulares. También puede aparecer al utilizar filtros y basicamente consiste en que las lentes captan el borde del objetivo o el soporte del filtro, que aparece como una mancha muy difusa oscura en los bordes (especialmente las esquinas) de la fotografía. Aunque el viñeteo en principio es un problema en ocasiones se utiliza como recurso o licencia estética o artística, bien provocándolo mecánicamente o añadiendo tal efecto manipulando la imagen una vez tomada.

Actualizado: Como corregir con Gimp los efectos de la lente y la perspectiva de nuestras fotos, un tutorial similar pero utilizando el programa de manipulación de imágenes GIMP.

SACADO DE: Microsiervos

Un modelo computacional imita la visión cerebral en contextos complejos

Permitirá construir robots capaces de ver tal como lo hace el cerebro

Ingenieros del Instituto Tecnológico de Massachusetts (MIT) han desarrollado un modelo computacional que imita la manera en que el cerebro humano procesa la información visual y la aplica a tareas complejas, como reconocer objetos en una calle llena de gente. Los modelos de visión desarrollados previamente sólo eran capaces de detectar objetos individuales, mientras que el nuevo modelo permite a los ordenadores “ver” por primera vez una amplia gama de objetos. Las aplicaciones inmediatas son la vigilancia, la asistencia a la conducción y, eventualmente, motores de búsqueda visual o robots capaces de ver. Por Raúl Morales.



Arriba imagen de escena callejera sacada del Street Scene Database. Debajo anotaciones hechas por el nuevo modelo
Por primera vez, científicos del laboratorio Poggio, encuadrado en el McGovern Institute for Brain Research del MIT, han aplicado un modelo computacional capaz de imitar la manera en que el cerebro procesa información visual en un contexto complejo y real, como reconocer objetos en una calle llena de gente.

El profesor Thomas Serre ha dirigido este estudio, cuyos resultados han sido presentados en un artículo que se publica en la edición de marzo del IEEE Transactions on Pattern Analisys and Machins Intelligence.

Este nuevo modelo computacional selecciona aleatoriamente imágenes de tal manera que puede “aprender” a identificar hechos en los que están involucrados objetos reales, como árboles, coches o gente. El modelo utiliza estos rasgos para etiquetar por categorías los diferentes ejemplos de objetos encontrados en fotografías digitales tomadas en una calle: edificios, coches, motos, aviones, caras, viandantes, calles, cielos, árboles y hojas.

Más versátil

En comparación con sistemas de visión computacional tradicionales, este nuevo modelo, que tiene una base biológica, es tremendamente versátil. Los sistemas tradicionales están desarrollados para reconocer una clase de objetos específica. Por ejemplo, un sistema creado para reconocer caras o texturas es muy pobre detectando coches. En el modelo presentado, el mismo algoritmo puede aprender a detectar un amplio espectro de clases de objetos.

Para testar el modelo, el equipo de investigadores utilizó fotografías de escenas de una calle sacadas de una base de datos llamada Street Scene Database. El modelo explora la escena y reconoce los objetos que intervienen en esa escena.

“Hemos desarrollado un modelo del sistema visual que será enormemente útil para los neurocientíficos a la hora de diseñar e interpretar experimentos y también tendrá aplicaciones en ciencia computacional. Hemos elegido una escena callejera para aplicar este nuevo modelo porque tiene una serie de categorías de objetos restringida y, a la vez, aplicaciones sociales prácticas”, dice Serre en un comunicado del McGovern Institute (MIT).

Aprender a ver

Enseñar a un ordenador cómo reconocer objetos es algo complicado porque un modelo computacional tiene dos finalidades paradójicas. Por un lado necesita crear una representación muy específica para un objeto en particular, como un caballo en contraposición a una vaca. Pero, al mismo tiempo, esa representación tiene que ser lo suficientemente invariable como para que el ordenador pueda descartar cambios en la iluminación, la posición o el tamaño del objeto.

Incluso la mente de un niño es capaz de manejar estas dos funciones contradictorias a la hora de reconocer objetos. La información entra a través de su retina y pasa hasta el córtex visual. Esto es precisamente lo que hace innovador el modelo propuesto por el laboratorio Poggio, ya que, computacionalmente hablando, imita la jerarquía del cerebro. Más concretamente, copia la forma en que las neuronas procesan los estímulos de entrada y de salida.

El modelo usado en la aplicación de una escena de calle copia sólo los cálculos que el cerebro usa para reconocer objetos con rapidez. El laboratorio Poggio está ahora trabajando para que sea capaz de reconocer objetos de una manera más lenta, de tal forma que le dota de la posibilidad de contextualizar la situación o de “reflexionar”: veo un coche, luego estoy en una calle y no en el cielo. Al dotar al modelo de esta habilidad semántica, sus creadores esperan ampliar sus aplicaciones prácticas, como crear filtros de vídeo para comportamientos anómalos o editores de vídeo mucho más inteligentes.

Primeras aplicaciones

Las aplicaciones inmediatas son la vigilancia, la asistencia a la conducción y, eventualmente, motores de búsqueda visual o robots capaces de ver. En el campo de la neurociencia, esta investigación es esencial para crear prótesis sensoriales, como una que pueda repetir los cálculos llevados a cabo por un nervio dañado en la retina. “Una vez que ya tenemos un buen modelo de cómo funciona el cerebro humano, podemos usarlo para mimetizar un desorden cerebral”, apunta Serre.


SACADO DE: Tendencias informáticas

El MIT dará sus cursos gratis a través de Internet

El MIT dará sus cursos gratis a través de Internet


NUEVA YORK.- El Instituto de Tecnología de Massachusetts (MIT) , una de las universidades norteamericanas de mayor prestigio, ha decidido ofrecer gratuitamente en Internet todos sus cursos y programas académicos. La idea tiene como objetivo aprovechar los medios que ofrece la Red para expandir la cultura y el interés de los norteamericanos y los internautas de todo el mundo por la Ciencia, la Matemática...y los famosos cursillos que se imparten en el MIT.

OpenCourseWare , el nombre de este proyecto, incluirá unos 2000 cursos distintos, con conferencias de expertos invitados, exámenes, notas y trabajos de los profesores especialistas.

La universidad gastará unos 100 millones de dólares (unos 18.600 millones de pesetas) en abrir portales de cada cursillo que incluirá también videoconferencias con los profesores.

Charles Vest, el presidente de la universidad, ha declarado al diario The New York Times que no teme que muchos estudiantes que acuden diariamente a clase y que pagan 26.000 dólares por curso prefieran estudiar online.

"La experiencia de convivir directamente en clase con los profesores, el acudir a nuestros laboratorios y experimentar y el aprender junto a otros compañeros es irrepetible" y eso es lo que marca las diferencias entre el mundo online y offline, ha dicho Vest.

Los internautas que utilicen OpenCourseWare no podrán graduarse en MIT, aunque gozarán de todas las ventajas para obtener su título en otra universidad estadounidense o de cualquier lugar del mundo.

La decisión de esta universidad de ofrecer gratuitamente sus enseñanzas online es un drástico cambio en la forma en la que los centros de educación superior utilizan la Red.

La educación a distancia a través del Internet cuenta con miles de cursillos especializados de pago para estudiantes que no asisten a las clases pero hasta ahora ninguna institución había ofrecido poner todas sus materias online y garantizar su acceso gratuitamente.

MIT es una de las universidades de mayor nivel en Ciencias, Matemáticas, Informática, Electrónica, Física y Química y cada año miles de alumnos de todo el país y del mundo se quedan sin entrar en sus clases debido a los rigurosos criterios de selección.

Ahora cualquier estudiantes de Madrid, Moscú o Buenos Aires tendrá acceso a sus clases de Física Aplicada impartida por los mejores profesores del mundo. Y sin pagar ni moverse de su habitación.

El departamento de Informática del MIT es uno de los que más agresivamente ha defendido la idea de la "open source", de que el software que mueve los ordenadores de todo el mundo debe ser gratuito y de libre acceso para que la tecnología se extienda libremente por todas las áreas de la economía, la universidad y la sociedad sin fronteras. Y ahora este departamento ha convencido a la dirección del centro para que haga lo mismo con los cursillos que se imparten en sus aulas.

SACADO DE: navegante.com

VIDEO: Monkey Controls Robotic Arm With Mind. Beware Of Robot Monkeys.

LINK AL VIDEO

The monkey in the video has a chip in its brain that controls a robotic arm. He uses the arm to feed himself a piece of yellow food. Probably a banana. What’s in the deleted scenes? The outtakes of the monkey smacking himself in the head with robotic arm. -HENRY

Update:
Someone from the lab just left a comment …

I actually work in this lab currently, it was odd to see video from my own lab on BoingBoing. That was a reenactment in the sense that they replayed previous brain-control recordings through the arm, but the original movement was performed live. To see videos of it working in real time, go to

http://motorlab.neurobio.pitt.edu/index.php - go to “multimedia”

When I’m not writing here, I rock out at

SACADO DE: Monkey Controls Robotic Arm With Mind Monkeys.

Covirtiendo pensamientos en acciones... ¿Telequinesia?

Matt, está recostado en su silla, una silla adaptada para tetrapléjicos. Está en la habitación de un hospital. Una cama al fondo, una mesilla y varios monitores encendidos. Hasta aquí todo parece normal... Sin embargo, hay algo especial en esta escena, algo que puede cambiar el futuro de muchas personas en su situación. Matt está interaccionando con uno de los ordenadores, moviendo el cursor en el monitor, sin tocarlo físicamente, sólo a través de sus pensamientos. ¿Por fin una prueba científica de los poderes Psi?

En la revista Nature del 13 de Julio de este año 2006 se publican varios artículos y comentarios acerca de los extraordinarios avances que se han producido con las llamadas “neuroprótesis” (o interfaces cerebro-máquina). En este caso se trata de una “prótesis neuromotora implantable” (implantable neuromotor prosthetics). Un conjunto de microelectrodos colocados en la corteza motora (área de la corteza cerebral implicada en el control del movimiento), capaz de registrar la actividad eléctrica neuronal para posteriormente convertirla, con ayuda de un software y los algoritmos pertinentes, en el movimiento del cursor de un ordenador o, llegado el caso, de un brazo mecánico. Estas neuroprótesis, como explica Stephen H. Scott, utilizan los conocimientos obtenidos a lo largo de los últimos años acerca de las bases neuronales de la planificación y control del movimiento en el cerebro de monos.

Una de estas neuroprótesis ha sido implantada por primera vez en la corteza motora primaria de un tetrapléjico, Matt. Matt, puede modular la actividad de sus neuronas motoras a partir de instrucciones como “mueve tu brazo”. De esta manera, y sólo con la intención de mover su brazo, Matt puede mover el cursor de un ordenador. La clave del éxito está en comprender y descifrar qué cambios específicos en la actividad eléctrica neuronal corresponden con la intención (decisión) de realizar un movimiento determinado. Cada vez conocemos mejor cómo funciona nuestro cerebro, aunque a muchos les de miedo reconocerlo...

La neuroprótesis motora implantable ha mejorado los interfaces cerebro-máquina diseñados anteriormente que registraban las ondas cerebrales (EEG) a través de electrodos colocados en el cuero cabelludo. La metodología del EEG, aunque no era invasiva, no era tan avanzada. Hay que tener en cuenta que el EEG registra la actividad simultánea de grandes grupos de neuronas por lo que la señal obtenida tenía una capacidad espacial y temporal muy limitada. Las neuroprótesis, en cambio, registran la actividad de sólo unas pocas neuronas y por tanto las señales neuronales recogidas corresponden con mayor precisión con las intenciones motoras del sujeto. ¿Desventajas? Es una técnica invasiva, con los riesgos que supone una cirugía compleja en el cerebro. Pero la mayor incertidumbre es que aún no se sabe durante cuánto tiempo pueden estos microelectrodos implantados registrar la actividad neuronal. Es importante que duren muchos años, si pensamos en pacientes jóvenes que puedan quedar impedidos físicamente.

Nuestro cerebro interacciona de una manera muy eficiente con el entorno, pero sólo a través de los órganos de los sentidos y de su sistema motor. Y así fue “construido” durante cientos de miles de años de evolución biológica. No existe “señal” o “energía” alguna “proyectada” desde nuestro cerebro y capaz de influir físicamente con el exterior de manera natural... La telequinesia es pura fantasía (al igual que otros así llamados poderes de la mente). Y los interfaces cerebro-máquina son una prueba más de ello. Y las posibilidades futuras son enormes. Quizás con el avance de la tecnología en paralelo a la investigación neurobiológica se pueda “cerrar el círculo”, como comenta Alison abott en Nature. Esto es interfaces cerebro-máquina interactivos, capaces no sólo de ejecutar nuestras intenciones motoras sino también de informarnos acerca de nuestros movimientos y posición en el espacio (propiocepción), como si de miembros biológicos se tratara. Y avanzando un poco más en el tiempo..., ¿hasta dónde y con cuánta antelación podremos predecir las intenciones y decisiones que conforman nuestra conducta? El futuro está más cerca de lo que pensamos.

SACADO DE: Las Pirámides del Cerebro

Face Processing Demos

Demos de reconocimiento facial, lenguaje de signos.


Un córtex de silicio para desvelar los secretos del cerebro humano

Avances en la construcción de cerebros artificiales, según explica Enrique Dans:

Un verdadero cerebro artificial – En el artículo Building the Cortex in Silicon del MIT Technology Review se cuenta cómo un grupo de científicos en Stanford que trabajan en ese enigmático campo denominado Neuroinformática se han propuesto construir una réplica completa en silicio del córtex cerebral, mediante un proceso de modelización o neuromorphing que ya ha servido anteriormente para construir partes como la retina, la cóclea o el hipocampo. El avance de la tecnología nos ha llevado a un momento en el que resulta ya posible construir modelos a escala que contengan varios cientos de miles de neuronas, simulaciones a gran escala que empieza a resultar viable escalar para generar lo que podría llegar a representar un verdadero cerebro.
Actualización: Para los menos duchos en la lengua de Shakespeare hay una traducción completa hecha por Maikelnai a partir del original de Technology Review, aquí: Planifican el primer córtex de silicio.

(Vía Enrique Dans.)

Detection algorithms to enable sign language on-the-go

Sure, texting has taken the entire world by storm and is likely to remain the next best option to actually speaking to someone for quite some time, but for those who feel that keying in paragraphs of information takes a bit too much time, they're looking for alternatives. Designed to assist the mute and deaf (or those who just love the limelight) who rely on cellphones, the MobileASL video compression project seeks to enable sign language over video telephony, even on less-than-speedy data networks. Developed at the University of Washington, the specialized skin detection algorithms are able to key in on critical moving parts (read: hands and fingers) and utilize the limited bandwidth to broadcast the most important vectors first. The ASL encoders are compatible with the H.264 / AVC compression standard, and while it wasn't directly stated just how viable this option was for those stuck on a 1xRTT connection, you can hit the read link to get in on the user studies if you're down with signing.

[Via Slashdot]

A que famoso te pareces

Si no lo veo no lo creo. Había probado con anterioridad las típicas webs que les mandas una foto y te dicen a que famoso te asemejas, pero todas eran poco serias. Esta es todo lo contrario, arrojando unos resultados realmente sorprendentes. No lo dudes, busca una foto (de gran resolución) en que te se vea el rostro claramente de frente, y mándala. La misma web delimitará tu cara, descubrirá cual es tu sexo, y te dirá a que famosos te pareces. En mi caso a Kevin Mitnick (en la foto que usé es cierto), y mi novia a Scarlet Johanson (wow!).

Amazon creates artificial artificial intelligence

Amazon.com has launched a new program called Amazon Mechanical Turk, through which a computer can ask humans to perform tasks that it can’t do itself.

The name Mechanical Turk dates back to 1769, when a Hungarian nobleman created a wooden robot-like mannequin that could play chess -- even defeating chess fanatic Benjamin Franklin in Paris.

The Mechanical Turk toured around Europe to the amazement of large crowds and to the suspicion of a great many skeptics who surmised that a chess master was hiding inside. (Edgar Allen Poe even wrote an article detailing how it could be done.)

With Amazon Mechanical Turk, Amazon plans to supply "artificial artificial intelligence" that connect programs needing the human touch with humans, such as the simple task of identifying objects in photographs (which humans can do better than computers). Examples of what humans can do for computers? Evaluate beauty, translate text and find specific objects in photos.

"Today, we build complex software applications based on the things computers do well, such as storing and retrieving large amounts of information or rapidly performing calculations," the company said. "However, humans still significantly outperform the most powerful computers at completing such simple tasks as identifying objects in photographs -- something children can do even before they learn to speak.

Amazon profits by collecting a fee from the developer requesting tasks for human performance -- called HITS, or human intelligence tasks. Amazon’s search engine A9.com already has used the application to cull the best photos for its BlockView pictures, which show users street-level pictures of businesses.

For more information, visit www.mturk.com.

FaceCode: Use your face as your password

computer log onThis password protection program is bound to earn you a few cool points next time someone wants to use your computer.

FaceCode is a program that uses the webcam on your computer to make sure it's really you that is trying to log on and can keep other people out of your PC even if they know your username and password.

The program uses an elaborate series of face scans to determine exactly what your face looks like. Once authenticated you can use your face as the password for your computer system as a whole, as well as certain applications on your computer.

Once downloaded onto your computer, FaceCode scans your face several times in order to get a good feel for what your face looks like. Due to the way the program scans and remembers your face, this is an application that would be best used for a desktop computer that always has a webcam attached and stays in the same position in an office or room. FaceCode requires a Windows based computer. You can download a free trial version off of the FaceCode website or the program can be purchased for $29.95 US.

FinePix Z5fd, también con detección facial

z5.png
Tomamos un respiro en el SIMO para ponernos al día en el mundo de los gadgets más allá de las puertas de la feria española. Lo hacemos con el último lanzamiento de Fuji, su cámara digital FinePix Z5fd.

Destacamos la tecnología de detección facial para unas mejores fotos de primeros planos, todo ello en solo 0.05 segundos. Si hablamos de los megapíxeles, podemos citar el número seis, pero no olvidemos que haciendo uso de un sensor SuperCCD HR.

La pantalla de 2.5 pulgadas, el zoom óptico de 3 aumentos y la sensibilidad máxima de 1600 ISO con eliminación del ruído me dejan frío frente a la curiosa función blog, que reduce la imagen para adaptarla a los formatos básicos de los blogs.

Vía | quesabesde.

Policía británica quiere la identificación facial automática desde vídeos

camara2.jpg
PITO, que no es cachondeo sino las siglas de Police Information Technology Organisation en la Gran Bretaña, anda detrás de que se desarrolle un sistema de reconocimiento de rostros de forma automática a través de las imágenes que capten las cámaras de seguridad. Al tiempo las imágenes serán transmitidas al centro de la policía donde se contrastarán con las bases de datos de delincuentes.

El sistema permitiría también enviar las imágenes a dispositivos móviles de los policías de calle.

Todo este sistema entra dentro de un plan para modernizar la técnica de identificación y almacenamiento de datos de delincuentes que ya no se basaría sólo en las huellas dactilares sino en un completo fichero biométrico.

Vía | News.com.

Polar Rose, el análisis facial llega a la red

Polar RoseEn una red donde todo se tiene a catalogar y analizar, a pesar de los esfuerzos por añadirle información semántica las fotografías todavía se escapan a los poderosos algoritmos de análisis de contenidos. Sin embargo Polar Rose puede que revolucione este concepto con una herramienta capaz de reconocer personas en imágenes a través de generar modelos 3D virtuales basados en el procesamiento de parámetros como la iluminación. Además la aplicación tiene características sociales que permitirán difundir e integrar la colaboración de varios usuarios en el proceso de reconocimiento. Está previsto liberar un plugin para el navegador (Internet Explorer y Firefox) durante los primeros meses de 2007, asimismo también se podrá disponer de una API que se integre en cualquier aplicación que trabaje con imágenes y quiera aumentar su funcionalidad.

Polar Rose - Modelo Virtual

Polar Rose: Europe’s Entrant Into Facial Recognition (Vía Techcrunch)