Visión por Computadoras
En este blog podrán ver diferentes artículos,vídeos,presentaciones,etc. Sobre visión artificial, su fin es educativo. Esta trabajado desde la materia inteligencia artificial.
sábado, 8 de noviembre de 2014
viernes, 7 de noviembre de 2014
Comparación
Sistema humano:
• Mejor reconocimiento de objetos.
• Mejor adaptación a situaciones
imprevistas (oscuridad).
• Utilización de conocimiento previo
(experiencias).
Sistema por computadora:
• Mejor en la medición de magnitudes
físicas (cálculos precisos).
• Mejor para la realización de tareas
rutinarias.
Los requisitos de los fotorreceptores son:
·
Que sean lo suficientemente pequeños
como para implantarlos en el ojo.
· Que tengan una fuente de abastecimiento de energía continua.
· Que no causen rechazo, es decir, que sean biocompatibles con los tejidos
del ojo.
Uno de los micros
que se ha desarrollado con éxito por el momento es un dispositivo de 2 mm
de diámetro y tan delgado como un cabello humano. Contiene 3,500 células
solares microscópicas que imitan a los bastones y los conos y convierten la luz
en impulsos eléctricos. Se abastece de energía solar,
con lo que se
evitan cables y baterías.
Visión artificial aplicada al sistema visual humano
Cuando la retina está dañada o no funciona bien, los fotorreceptores dejan de funcionar, pero eso no quiere decir que toda la estructura del sistema visual humano no pueda seguir funcionando. Por ello, algunos científicos están desarrollando microchips de silicio que puedan dotar de visión
artificial a aquellas personas a quienes no les funcionan los fotorreceptores. ( los fotorreceptores se localizan en la retina en el interior del ojo y existen tres tipos diferentes: los conos, los bastones y las células ganglionales)
La información captada por los fotorreceptores se transmite a las células ganglionares, donde se interpreta y se manda al cerebro a través del nervio óptico. Existen enfermedades que afectan a estas células como la retinosis pigmentaria o la DMAE, que dejan inoperativos los fotorreceptores pero no dañan las células ganglionares o el nervio óptico, con lo cual el problema no es que la información no puede llegar al cerebro, sino que no se puede captar. En estos casos se pueden desarrollar unos conos y bastones artificiales.
jueves, 6 de noviembre de 2014
Un argentino ciego logró ver tras un implante.
El aspecto de los anteojos donde están ubicadas las microcamaras. |
Hay un argentino, que ve la luz al final del túnel. Se trata de Edmundo, de 51 años de edad y ciego desde hace 29, quien se convirtió en uno de los ocho primeros pacientes en recibir un implante de ojos artificiales, que incluyen minicámaras de TV, computadora para procesar las imágenes y electrodos conectados directamente en el cerebro. La tecnología fue desarrollada por un equipo norteamericano y las operaciones se efectuaron en Portugal. Una versión del mismo sistema había sido presentada hace unos años. No proporciona una visión tan precisa como para, por ejemplo, leer, pero, según el equipo que lo desarrolló, permite a los usuarios movilizarse por sí mismos en una ciudad; les ofrece, efectivamente, una imagen “túnel”, focalizada por la minicámara de TV.
Las intervenciones fueron efectuadas en Lisboa por el neurocirujano portugués Joao Lobo Antunes, en el marco del programa del Instituto Dobelle de Estados Unidos. El paciente argentino había perdido la vista a los 22 años en un accidente de auto; el mismo motivo causó la ceguera de otros tres de los ocho pacientes, cuyas edades van de los 39 a los 77 años y sus tiempos de ceguera desde dos hasta 57 años.
El sistema completo funciona así: el paciente usa unos anteojos donde hay montados una minicámara de televisión y un sensor ultrasónico de distancias. Los datos que estos instrumentos reciben son enviados a una computadora que la persona lleva en la cintura. Esta procesa la información y la envía a la placa de platino, cuyos electrodos la introducen en el sistema nervioso.
El resultado es una imagen “túnel”, focalizada por la cámara. En la prueba que se efectuó hace dos años, cuando el sistema fue presentado por primera vez, un paciente fue capaz de retirar un gorro negro colgado en una pared blanca y colocárselo a un maniquí situado en otro lugar de la habitación. También pudo leer letras de cinco centímetros a un metro y medio de distancia.
William Dobelle, director del proyecto, informó que esta “segunda generación” del ojo artificial incluye la “detección de bordes”, lo cual permite distinguir formas sobre fondos no contrastantes. Y comunicó que dos de los pacientes fueron capaces de conducir autos en una pista privada. Cuatro de ellos pudieron percibir colores. El sistema permitiría a la persona movilizarse por sí misma en un ambiente urbano.
Todos los pacientes habían perdido la vista por traumatismos y ninguno era candidato posible para trasplantes de retina. El implante no es apto para personas ciegas de nacimiento, ya que su corteza visual no está desarrollada como para responder a los electrodos.
Ninguno de los pacientes experimentó complicaciones posoperatorias, según informó Antunes, quien no obstante previno que “los riesgos de infección todavía no han sido totalmente establecidos”. El sistema no fue aprobado hasta ahora por las autoridades sanitarias norteamericanas, razón por la cual las operaciones se efectúan en otros países.
¿Cómo funciona el reconocimiento facial?
Como
existe una gran cantidad de aplicaciones, el funcionamiento varia de unas a
otras, pero independientemente de los patrones empleados por cada programa hay
una serie de pasos comunes.
Una
vez obtenida una imagen (ya sea empleando cámaras dedicadas a aplicaciones de
seguridad o webcams domésticas) el primer paso consiste en la extracción de la
cara de la imagen. Para ello se obtienen puntos singulares con los que centrar
la imagen, los ojos por ejemplo. De esta imagen centrada se normaliza a un
tamaño y profundidad específicos para después extraer rasgos de ella (estos
primeros pasos son comunes a la mayor parte de aplicaciones de visión
artificial):
face
to features
A
continuación se divide la imagen en bloques menores y se almacena en una
matriz:
face
to dct
Eigenfaces
Finalmente
se procesan los datos de las nuevas imágenes y se generan sus “Eigenfaces”,
conjunto de vectores propios, mediante un proceso matemático llamado ACP. Es
decir separamos la información de la cara en una serie de autovectores,
derivados del análisis estadístico de un gran número de rostros.
Suscribirse a:
Entradas (Atom)