Lunes
26.06.2017
        
Sin Mordaza
19-06-2017 | CIENCIA Y TECNOLOGIA | ESPAñA

Buscan que las máquinas piensen como un menor de 5 años

El científico español Pablo Lanillos lanzó un experimento para que los robots aumenten su nivel de percepción.

La razón es acaso la gran incógnita que flota en la profundidad del cerebro humano. Y mientras los científicos se preguntan si una estructura basada en el silicio alguna vez será capaz de producir conciencia, el investigador español Pablo Lanillos, doctor en inteligencia artificial, busca implementar un método para que las máquinas aumenten su capacidad de percepción y de aprendizaje. A través del proyecto Selfception, su intención es lograr que los androides, al reconocerse a sí mismos como una entidad mecánica, alcancen un nivel de comprensión similar al de un niño de 5 años.

Para conseguir la conciencia de sus actos, la clave está en la morfología del propio robot. “Dentro del campo especulativo, imagina diseñar un humanoide y que él mismo vaya aprendiendo de su propia configuración y esto le facilite la interacción con su entorno. Dependiendo del cuerpo y la distribución de los sensores, tendría un comportamiento particular, al igual que pasa con los diferentes animales. Para a ese punto, hay que pasar por múltiples etapas. Este proyecto se centra en crear un modelo que permita aprender el ‘yo sensomotor’ y posiblemente, a partir de ahí, muchas incógnitas serán resueltas pero otras muchas aparecerán”, le contó a Clarín Lanillos.

Tras casi siete décadas de exploración en el campo informático y haber logrado grandes avances en IA en los últimos diez años, ya aparecieron las primeras máquinas capaces de entender cosas muy básicas del mundo y de la comunicación humana.

Hoy un robot puede operar a un paciente del corazón, ensamblar autos o realizar precisos diagnósticos, pero “al enfrentarlo ante un entorno real y cambiante no tienen ni un año de edad. Comparándolo con todo lo que puede hacer un niño, todavía está en pañales. Para hacernos una idea, la IA nace a finales de los años 50, mientras que el homo sapiens tiene unos 200 mil años. A grandes rasgos, convivimos con la IA un 0,0003 del nuestro tiempo. Para comparar, el coche lleva con nosotros más del doble del tiempo. Todavía queda mucho por investigar” indica Lanillos.

Actualmente, los autómatas carecen del sentido del tacto; sumar esta capacidad les permitiría establecer “un mapa sensorial” del ambiente en el que habitan. Lo primero es establecer una distinción con respecto a otros elementos que los rodean, como lo hacen los humanos en su proceso de desarrollo. “Un niño aprende dónde está su mano y qué ocurre cuando toca algo. Después intenta agarrar objetos que están a su alcance. Al mismo tiempo sus padres interaccionan dándole otras piezas. Todo este aprendizaje progresivo crea una representación de su cuerpo y le permite diferenciarse de sus padres”, explica Lanillos.

Y aunque la mayoría de los investigadores en el ámbito de la percepción sintética se centran en el aspecto racional, otros empiezan a incorporar componentes de la analítica de emociones para que las máquinas puedan percibir sentimientos como el dolor, el amor o el odio. Un estudio de Infoholic Reseach muestra que el negocio de interpretar los indicadores biológicos en la IA, alcanzará un volumen de 1.711 millones de dólares de cara a 2022.

Las características del cerebro y sus conexiones sinápticas son parte de procesos físicos, químicos y biológicos complejos que quizás nunca podrán reproducirse en un laboratorio. Pero el resultado de esos procesos, sí podrían imitarse y superarse de forma efectiva con algoritmos sencillos e inteligentes codificados en máquinas complejas.

Sin embargo, aún se está muy lejos de lograr una conciencia artificial que controle el juicio de los androides. El experimento más célebre contra la Inteligencia Artificial (IA) y el test de Turing es el de la “habitación china”, impulsada por el filósofo norteamericano John Searle. El ejemplo más claro entre cálculo y lógica, según Searle, es una máquina que realiza una perfecta traducción del inglés al chino y viceversa. En realidad, se trataría de un sistema que sigue las reglas y los signos de ambas lenguas, pero es incapaz de entender el significado de la tarea que está realizando.

Y aunque estas máquinas son capaces de aprender por sí solas y empiezan a mostrar rasgos de la inteligencia humana, la condición de conciencia implica que el sistema crea que está vivo y si no quiere hacer una tarea, rechazarla. “No entendemos muy bien cómo funciona la conciencia. Probablemente nunca seamos capaces de construir máquinas que tengan conciencia de sí mismas”, explicó el neurocientífico Greg Corrado, impulsor de Google Brain. El gran desafío de Lanillos es ahora dar el primer paso para lograrlo.

Fuente: SM - Clarín
Imprimir


Sin Mordaza
TodoVende.com.ar
SIN MORDAZA © Copyright 2015 - sinmordaza.com
Todos los derechos reservados.