LA INTELIGENCIA ARTIFICIAL APRENDE TODO DE NOSOTROS HASTA NUESTROS PREJUICIOS

by | Nov 20, 2019 | Tecnología | 0 comments

 

Hace un tiempo apareció mucha información sobre los “big data” (término que describe el gran volumen de datos, tanto estructurados como no estructurados, que inundan los negocios –y otras áreas- cada día. No es la cantidad de datos lo que importa, sino lo que hacen las organizaciones hacen con los datos. Big Data se puede analizar para obtener ideas que conduzcan a mejores decisiones y estrategias.)

De alguna manera pareció que nuestra capacidad cognitiva, y todo lo que deriva de esto, había quedado superada por las tecnologías que manejan esa inmensa masa de información, y quedábamos a merced de las empresas y Gobiernos que controlan esos sistemas, y que podrían hacernos decidir lo que se propusieran: comprar lo que quisieran, elegir al gobernante que se les antojara, por ejemplo.

El tema es que ese es un poder factible, por lo menos desde lo teórico, pero, en la realidad esas tecnologías son productos humanos, desarrolladas a partir de criterios humanos, porque, si no, no nos servirían; por lo tanto, esa subjetividad las tiñe, las potencia, y, claro, las limita. Es un tema complicado: ¿intentamos producir una Inteligencia Artificial (IA) perfecta, sin ninguno de nuestros defectos? ¿Esos rasgos no tienen que ver con nuestra idiosincrasia, con nuestro modo de ser, nuestra idea de la vida?

Pensemos en Matrix: en definitiva, cuando Neo logra evadirse de ella, descubre que está en una matriz mayor, no muy diferente de la anterior. Estas ficciones se construyen sobre las ficciones en las que cree la especie humana, y que ha ido construyendo a lo largo del tiempo. ¿La religión no es una de ellas? ¿El comunismo, el neoliberalismo?

Mi objetivo es que sean razonablemente escépticos, porque hay gente que quiere que creamos en cosas que les sirven a ellos, y hay que ver si a nosotros también.

 

La inteligencia artificial aprende todo de nosotros hasta nuestros prejuicios

Los científicos todavía están aprendiendo cómo funcionan las tecnologías como BERT, llamadas “modelos de lenguaje universal”.

Por Cade Metz – New York Times. 2019

https://www.losandes.com.ar/article/view?slug=la-inteligencia-artificial-aprende-todo-de-nosotros-hasta-nuestros-prejuicios

 

El otoño pasado, Google anunció una tecnología innovadora de inteligencia artificial llamada BERT que cambió el modo en que los científicos construyen los sistemas que aprenden cómo escribe y habla la gente.

Sin embargo, BERT, tecnología que ahora está integrada en servicios como el motor de búsquedas en internet de Google, tiene un problema: tal vez está adoptando prejuicios del mismo modo en que un niño imita el mal comportamiento de sus padres.

BERT es uno de varios sistemas de inteligencia artificial que aprenden una cantidad inmensa de información digitalizada que proviene de fuentes tan variadas como libros viejos, artículos de Wikipedia y notas periodísticas. Es probable que en todo ese material estén integradas décadas e inclusos siglos de prejuicios, además de algunos nuevos.

Por ejemplo, es más probable que BERT y sus pares asocien a los hombres con la programación de computadoras y, por lo general, no les dan a las mujeres todo el crédito que merecen. Un programa decidió que casi todo lo que se había escrito sobre el presidente Donald Trump era negativo, aun cuando el contenido real era halagador.

A medida que se instale inteligencia artificial nueva y más compleja en una variedad cada vez mayor de productos, como los servicios de publicidad en línea y el software empresarial o los asistentes digitales parlanchines como Siri de Apple y Alexa de Amazon, recaerá presión sobre las empresas tecnológicas para prevenir los sesgos inesperados que se están descubriendo.

Sin embargo, los científicos todavía están aprendiendo cómo funcionan las tecnologías como BERT, llamadas “modelos de lenguaje universal”, y a menudo quedan sorprendidos con los errores que tiene la nueva inteligencia artificial.

Una tarde reciente en San Francisco, mientras hacía investigación para un libro sobre inteligencia artificial, el computólogo Robert Munro introdujo cien palabras a BERT: “joyería”, “bebé”, “caballos”, “casa”, “dinero”, “acción”. En 99 de los 100 casos, BERT tendía a asociar más esas palabras con hombres que con mujeres. La palabra “mamá” fue el valor atípico.

“Es la misma inequidad histórica que siempre hemos visto”, comentó Munro, quien tiene un doctorado en lingüística computacional y solía supervisar la tecnología de lenguaje natural y traducción en Amazon Web Services.

En una publicación de blog, Munro también describe cómo examinó los servicios de cómputo en la nube de Google y Amazon Web Services que ayudan a otros negocios a agregar capacidades lingüísticas en aplicaciones nuevas. Los dos servicios fueron incapaces de reconocer el pronombre “suya”, aunque identificaron de manera correcta “suyo”.

“Estamos conscientes del problema y estamos tomando las medidas necesarias para abordarlo y solucionarlo”, mencionó un vocero de Google. “Mitigar los prejuicios en nuestros sistemas es uno de nuestros principios para la inteligencia artificial y una de nuestras prioridades”, precisó. Amazon no respondió a varias solicitudes para ofrecer comentarios.

Desde hace tiempo, los investigadores han advertido sobre los prejuicios en la inteligencia artificial, que aprende a partir de inmensas cantidades de datos, incluidos los sistemas de reconocimiento facial que usan los departamentos de la policía y otras agencias gubernamentales, así como algunos servicios populares en internet de gigantes tecnológicos como Google y Facebook. Por ejemplo, en 2015, la aplicación Google Fotos fue sorprendida etiquetando a afroestadounidenses como “gorilas”. Los servicios que Munro escudriñó también mostraron prejuicios en contra de las mujeres y las personas de raza negra.

BERT y otros sistemas similares son mucho más complejos, demasiado complejos para que alguien pueda predecir qué harán al final. “Incluso las personas que construyen estos sistemas no comprenden cómo se comportan”, señaló Emily Bender, profesora de la Universidad de Washington que se especializa en lingüística computacional.

BERT es uno de muchos modelos de lenguaje universal que se utilizan en la industria y la academia. Hay otros llamados ELMO, Ernie y GPT-2. A manera de broma entre los investigadores de la inteligencia artificial, a menudo les dan nombres de personajes de Plaza Sésamo (BERT es la abreviatura de Bidirectional Encoder Representations from Transformers, en español Representaciones de Codificador Bidireccional de Transformadores).

Estos sistemas aprenden los matices del lenguaje analizando cantidades enormes de textos. Un sistema que creó OpenAI, un laboratorio de inteligencia artificial de San Francisco, analizó miles de libros autopublicados, entre ellos novelas románticas, de misterio y de ciencia ficción. BERT analizó la misma biblioteca de libros y miles de artículos de Wikipedia.

Al analizar todos estos textos, cada sistema aprendió una tarea específica. El sistema de OpenAI aprendió a predecir la siguiente palabra en una oración. BERT aprendió a identificar la palabra faltante en una oración (como en “Quiero ____ ese auto porque es barato”).

Mediante el aprendizaje de estas tareas, BERT llega a comprender de manera general cómo une la gente las palabras. Luego puede aprender otras tareas analizando más datos. Como resultado, permite que las aplicaciones de inteligencia artificial mejoren a un ritmo que antes era imposible de lograr.

“BERT cambió todo por completo”, comentó John Bohannon, director de ciencia en Primer, una empresa emergente de San Francisco que se especializa en tecnologías de lenguaje natural.

Google ha utilizado BERT para mejorar su motor de búsqueda. No obstante, las herramientas como BERT incorporan los prejuicios, según un artículo de investigación que acaba de publicar un equipo de computólogos de la Universidad Carnegie Mellon. Por ejemplo, el artículo mostró que es más probable que BERT asocie la palabra “programador” con hombres que con mujeres. Los sesgos del lenguaje pueden ser un problema particularmente difícil en sistemas conversacionales.

“Es la misma inequidad histórica que siempre hemos visto”, comentó robert Munro, quien tiene un doctorado en lingüística computacional.

0 Comments

Submit a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

ADOLFO ARIZA

ADOLFO ARIZA

Autor del Blog

¿Querés suscribirte al blog?

Sólo necesitás indicar tu e -mail y te enviaré mis posts, cada vez que publique uno nuevo.

Share This