Cómo las computadoras perciben el mundo
En el campo emergente donde la inteligencia artificial se encuentra con el mundo físico, una pieza de tecnología del tamaño de la palma de la mano podría tener un gran potencial para la forma en que las computadoras perciben el medio ambiente.
Un dispositivo conocido como OAK-D empaqueta cámaras estéreo con detección de profundidad e IA en un solo producto. Esa combinación le permite percibir y procesar el tamaño y la distancia de las características en tiempo real; programado con software, los ingenieros pueden entrenarlo para reconocer y reaccionar ante objetos o movimientos particulares.
La empresa que lo fabrica, Luxonis, es una de las muchas que experimentan con la llamada IA espacial, construyendo productos como vehículos autónomos, gafas de realidad aumentada y robots de reparto. Lo que es único acerca de OAK-D es que actúa como un bloque de construcción para los ingenieros que lo usan para crear prototipos de nuevas ideas con muy poco dinero (se vende por $299). En este momento, en un concurso patrocinado por Microsoft e Intel, ingenieros de todo el mundo están proponiendo nuevas formas de utilizar sus capacidades de percepción informática en tiempo real para abordar situaciones del mundo real, desde la supervisión del control de calidad de la fábrica hasta la asistencia de navegación para ciegos para ayudar a estudiantes a tocar instrumentos o practicar deportes.
Brandon Gilles, director ejecutivo y fundador de Luxonis, dice que la tecnología es un avance significativo más allá del mapeo informático tridimensional tradicional. Mientras que las computadoras han sido capaces desde al menos la década de 1980 de producir mapas tridimensionales en tiempo real de un área geográfica, esos mapas todavía eran “tontos” en el sentido de que todavía necesitaban un ser humano para saber qué había en ellos. "Eso fue en gran parte lo que bloqueó la conducción AV durante un tiempo: había muchas formas de sentir el mundo, pero no de generar inteligencia", dijo. “Pero lo que tenemos ahora es algo que te puede decir, mientras te mueves, aquí está la silla, aquí está el borde de la silla, aquí está el monitor, esa es una imagen de una persona en una pared, no una persona real. Al igual que un ser humano puede entender el mundo, ahora la computadora también puede hacerlo".
Las implicaciones son vastas. Gilles imagina un mundo en el que la mayoría de los objetos son conscientes de su entorno. El sistema de desbloqueo de reconocimiento facial del iPhone es un precursor temprano de esto, dijo. Él predice que la tecnología estará algún día en todo, desde drones de reparto hasta semáforos y caddies de golf robóticos. "Cualquier producto con el que interactúes en el día a día pasará a tener una conciencia situacional inteligente", dijo. "Comprenderá que eres una persona y el contexto de lo que estás tratando de hacer, en cómo ayudar".
Si la tecnología se vuelve tan omnipresente, las batallas por la propiedad de los datos, las preocupaciones por la vigilancia y la privacidad, y la pérdida de puestos de trabajo debido a la automatización también estarán presentes, así como nuevas formas de trabajar y navegar como humanos.
Fuente: CityLab