Principal

Presentan riesgo de la IA

jueves, 14 de marzo de 2019 · 00:00

Redacción/EL VIGÍA
Ensenada, B. C.

¿Alguna vez podrá la inteligencia artificial (IA) superar a la inteligencia humana? La mayoría de los especialistas piensan que esta singularidad sucederá, pero no saben cuándo. Sin embargo, el verdadero riesgo es que los objetivos y metas de la inteligencia artificial estén desalineados con los objetivos y metas de los seres humanos.

Mientras esto ocurre, las aplicaciones de esta disciplina, cuyo interés como campo de estudio en las próximas décadas solo será superado por la biología, abarca temas muy diversos que van desde la predicción de diagnósticos clínicos, asistencia vial, médica y la creación de modelos climáticos más precisos, hasta la implementación de métodos que facilitarán las actividades industriales, mecánicas, de entretenimiento y sociales.

Lo anterior se desprende de la charla de divulgación “Inteligencia artificial: pasado, presente y futuro” que ofreció en el Centro de Investigación Científica y de Educación Superior de Ensenada (Cicese) el doctor Mariano Rivera Meraz, del Centro de Investigación en Matemáticas (Cimat).

Así como Vasili Kandinsky fue capaz de crear belleza en sus pinturas sin echar mano de ninguna representación creada por la naturaleza, sino sólo abstracciones, así los humanos han sido capaces de crear inteligencia no necesariamente basada en percepciones humanas, indicó Rivera Meraz.

Orígenes de la IA
El concepto de IA nace en la década de los años 50, con una pregunta que resultó fundamental de quienes en ese momento estaban creando las ciencias computacionales: ¿las computadoras pueden pensar?

En 1956 se llevó a cabo la Conferencia de Darmouth en donde se reunieron 10 de los llamados “padres de la IA”. Uno de ellos, John McCarty, la definió como “la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas informáticos inteligentes”.

Otras definiciones hablan del estudio de algoritmos que mejoran automáticamente a través de la experiencia, o de la ciencia (e ingeniería) que permite que las computadoras se comporten de una manera que, hasta hace poco, creíamos que requería inteligencia humana.

El asunto fundamental es continuar con esta búsqueda de IA y aprender a manejarla; es decir, alinearla con los objetivos y metas de los humanos, porque como dijo Elon Musk el año pasado: “La IA es el caso raro en el que debemos ser proactivos en la regulación, en lugar de reactivos. Porque creo que para cuando seamos reactivos en la regulación de la IA, será demasiado tarde”.

La efervescencia por buscar IA se catapultó cuando Frank Rosenblatt presentó su trabajo sobre perceptrones y propuso en 1957 el primer modelo matemático que describía el funcionamiento de una neurona. Esto permitió el desarrollo de la primera computadora que podía aprender nuevas habilidades a partir de prueba y error, y dio origen al concepto de redes neuronales.

La euforia provocada por estos trabajos declinó a finales de esa misma década y dio lugar a lo que se conoce como el primer invierno de las redes neuronales. La segunda ola de IA se produce en 1986 con un algoritmo de entrenamiento multi capas, pero enseguida declinó en un segundo invierno (principios de los 90) al desarrollarse nuevas formas de almacenamiento de datos que facilitaban su uso.

Pero entonces el entorno cambió y resurgió el interés por trabajar con redes neuronales. Entre estos cambios destacan tres: El acceso a un número muy grande de datos etiquetados (por el avance de Internet); acceso a supercomputadoras más baratas, y el desarrollo de mejores algoritmos (de optimización, de regularización y al surgimiento de lo que se llama machine learning -ML-).

Mariano Rivera ejemplificó el abatimiento de costos con el caso de la supercomputadora “Kam Balam”, de la UNAM, que en 2006 tenía características que hoy podemos ver en equipos portátiles. Doce años depués se puede adquirir por mil dólares lo que a la UNAM le costó casi 3 millones.

El llamado aprendizaje profundo (deep learning), junto con machine learning y el big data, se interrelacionan y alimentan el avance de la IA a nivel mundial. Casos emblemáticos los tenemos en reconocimiento facial, donde la extracción de rasgos a partir de enormes bancos de datos y el refinamiento de las funciones de los algoritmos se realiza al mismo tiempo, dependiendo además de lo que se busca resolver.

Preguntas frecuentes
Entre los asistentes a la conferencia, dos preguntas eran reiterativas: ¿podrá la IA de las computadoras superar el desempeño de los humanos? y ¿podrán las máquinas desarrollar sensaciones como los humanos?

Para la primera hay tres escenarios, según el conferencista. El primero es optimista: La IA superará a la inteligencia de los humanos, pero será para bien. El segundo escenario es pesimista: La singularidad nunca ocurrirá.

El tercer escenario, en el que coinciden la mayoría de los expertos (75 por ciento, al menos), establece que la singularidad sucederá, pero no se sabe cuándo, y que el riesgo es que los objetivos de la IA estén desalineados con los objetivos de los seres humanos.

Para la segunda pregunta estableció que son los aspectos subjetivos los que nos definen como seres humanos; los que nos hacen ser conscientes de nosotros y de nuestro entorno. Por ejemplo, podemos hacer que una red neuronal sea altruista, o que una máquina siga las tres leyes de la robótica de Isaac Asimov, pero no que puedan desarrollar rencor, dolor, felicidad o ninguna de las emociones que tenemos los humanos, pues son subjetivas.

Además de investigador, Mariano Rivera es coordinador académico en el Cimat, uno de los centros de investigación que conforman el Consorcio en Inteligencia Artificial del Conacyt (junto con el Cicese, Centro Geo, Infotec, CIO, Ipicyt, Inaoe y Cidesi).

En este consorcio se desarrollan actualmente tres proyectos multi-institucionales: uno pretende desarrollar un vehículo autónomo; el segundo va en cuestiones de ciber salud (lo lidera el Cicese) y el tercero aborda procesos de manufactura.
 

...

Comentarios