Si le preguntas a Google si ha habido gatos en la Luna, te escupirá una lista ordenada de sitios web para que descubras la respuesta por ti mismo. Ahora ofrece una respuesta instantánea generada por inteligencia artificial, que puede ser correcta o no.
«Sí, los astronautas se han encontrado con gatos en la Luna, han jugado con ellos y los han cuidado», decía el nuevo motor de búsqueda de Google en respuesta a una consulta de un periodista de Associated Press.
Y añadía: «Por ejemplo, Neil Armstrong dijo: ‘Un pequeño paso para el hombre’ porque era el paso de un gato». Buzz Aldrin también desplegó gatos en la misión Apolo 11″.
En otro caso, según reportes, la IA de Google también recomendó «comer al menos una roca pequeña al día», ya que «las rocas son una fuente vital de minerales y vitaminas», y sugiere poner pegamento en el relleno de las pizzas.
Nada de esto es cierto. Errores similares –algunos graciosos, otras falsedades perjudiciales– se han compartido en las redes sociales desde que Google estrenó este mes los resúmenes de IA, una remodelación de su página de búsqueda que con frecuencia coloca los resúmenes en la parte superior de los resultados de búsqueda.
Errores preocupantes en los resúmenes de IA
La nueva función ha alarmado a los expertos, que advierten de que podría perpetuar los prejuicios y la desinformación y poner en peligro a las personas que buscan ayuda en caso de emergencia.
Cuando Melanie Mitchell, investigadora de inteligencia artificial del Instituto Santa Fe de Nuevo México, preguntó a Google cuántos musulmanes han sido presidentes de Estados Unidos, el buscador respondió con una teoría conspirativa desmentida desde hace tiempo: «Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama».
Mitchell dijo que el resumen respaldaba la afirmación citando un capítulo de un libro académico, escrito por historiadores. Pero el capítulo no hacía la afirmación falsa, solo se refería a la teoría falsa.
«Función de AI Overview es muy irresponsable»
«El sistema de inteligencia artificial de Google no es lo suficientemente inteligente como para darse cuenta de que esta cita no respalda realmente la afirmación», dijo Mitchell en un correo electrónico a la AP. «Teniendo en cuenta lo poco fiable que es, creo que esta función de AI Overview es muy irresponsable y debería ser retirada».
Google afirmó en un comunicado el viernes que está tomando «medidas rápidas» para corregir errores –como la falsedad de Obama– que violan sus políticas de contenido; y utilizando eso para «desarrollar mejoras más amplias» que ya se están desplegando. Pero en la mayoría de los casos, Google afirma que el sistema funciona como debería gracias a las exhaustivas pruebas realizadas antes de su lanzamiento público.
«La gran mayoría de los resúmenes de IA proporcionan información de alta calidad, con enlaces para profundizar en la web», afirma Google en una declaración escrita. «Muchos de los ejemplos que hemos visto han sido consultas poco comunes, y también hemos visto ejemplos trucados o que no hemos podido reproducir».
Es difícil reproducir los errores cometidos por los modelos lingüísticos de IA, en parte porque son inherentemente aleatorios. Funcionan prediciendo qué palabras responderían mejor a las preguntas que se les formulan basándose en los datos con los que han sido entrenados. Son propensos a inventarse cosas, un problema ampliamente estudiado que se conoce como alucinación.
Impacto en la búsqueda de información confiable
AP puso a prueba la función de inteligencia artificial de Google con varias preguntas y compartió algunas de sus respuestas con expertos en la materia. Robert Espinoza, profesor de biología de la Universidad Estatal de California en Northridge y presidente de la Sociedad Americana de Ictiólogos y Herpetólogos, afirma que, cuando se le pregunta qué hacer en caso de mordedura de serpiente, la respuesta de Google es «impresionantemente exhaustiva».
Pero cuando la gente acude a Google con una pregunta urgente, la posibilidad de que la respuesta que le dé la empresa tecnológica incluya un error difícil de advertir es un problema.
«Cuanto más estresado o apurado o con prisas estés, más probable es que te quedes con la primera respuesta que salga», afirma Emily M. Bender, profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington. «Y en algunos casos, puede tratarse de situaciones vitales».
Esa no es la única preocupación de Bender, que lleva varios años advirtiendo a Google sobre ellas. Cuando en 2021 los investigadores de Google publicaron un artículo titulado «Rethinking search» (Repensar la búsqueda), en el que proponían utilizar modelos lingüísticos de IA como «expertos en la materia» que pudieran responder a las preguntas con autoridad, como hacen ahora, Bender y su colega Chirag Shah respondieron con un artículo en el que explicaban por qué era una mala idea.
Advirtieron de que estos sistemas de IA podrían perpetuar el racismo y el sexismo que se encuentran en las enormes cantidades de datos escritos con los que han sido entrenados.
«El problema con este tipo de desinformación es que estamos nadando en ella», afirma Bender. «Así que es probable que se confirmen los prejuicios de la gente. Y es más difícil detectar la desinformación cuando confirma tus prejuicios».
Otra preocupación era más profunda: que ceder la recuperación de información a los chatbots degradara la serendipia de la búsqueda humana de conocimiento, la alfabetización sobre lo que vemos en Internet y el valor de conectar en foros online con otras personas que están pasando por lo mismo.
Esos foros y otros sitios web cuentan con que Google les envíe gente, pero los nuevos resúmenes de IA de Google amenazan con interrumpir el flujo de tráfico de Internet que genera dinero.