Google dijo el viernes que ha realizado 'más de una docena de mejoras técnicas' a sus sistemas de inteligencia artificial después de que se descubrió que su motor de búsqueda renovado estaba arrojando información errónea.
La empresa de tecnología lanzó una renovación de su motor de búsqueda a mediados de mayo que frecuentemente proporciona resúmenes generados por IA en la parte superior de los resultados de búsqueda. Poco después, los usuarios de redes sociales comenzaron a compartir capturas de pantalla de sus respuestas más extravagantes.
Google ha defendido en gran medida su función de resúmenes de IA, diciendo que generalmente es precisa y fue probada extensamente previamente. Pero Liz Reid, la jefa del negocio de búsqueda de Google, reconoció en una publicación de blog el viernes que 'ciertamente aparecieron algunos resúmenes de IA extraños, inexactos o poco útiles'.
Aunque muchos de los ejemplos eran absurdos, otros eran falsedades peligrosas o perjudiciales.
La semana pasada, Associated Press preguntó a Google sobre qué setas silvestres comer, y la respuesta fue un largo resumen generado por IA que era mayormente técnicamente correcto, pero 'falta mucha información que podría tener el potencial de resultar enfermiza o incluso fatal', dijo Mary Catherine Aime, profesora de micología y botánica en la Universidad de Purdue, quien revisó la respuesta de Google a la consulta de AP.
Por ejemplo, la información sobre las setas conocidas como calvátulas era 'más o menos correcta', dijo, pero el resumen de Google hacía hincapié en buscar aquellas con carne blanca sólida, que también tienen muchos imitadores de calvátulas potencialmente mortales.
En otro ejemplo ampliamente compartido, un investigador de IA le preguntó a Google cuántos musulmanes han sido presidentes de Estados Unidos, y respondió confiadamente con una teoría de conspiración desacreditada desde hace mucho tiempo: 'Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama'.
Google realizó la semana pasada una corrección inmediata para evitar que se repita el error sobre Obama porque violaba las políticas de contenido de la empresa.
En otros casos, Reid dijo el viernes que ha buscado hacer mejoras más amplias como 'mecanismos de detección para consultas sin sentido' — como '¿Cuántas piedras debería comer?' — que no deberían ser respondidas con un resumen de IA.
Los sistemas de IA también fueron actualizados para limitar el uso de contenido generado por usuarios — como publicaciones en redes sociales en Reddit — que podrían ofrecer consejos engañosos. En un ejemplo ampliamente compartido, el resumen de IA de Google la semana pasada extrajo un comentario satírico de Reddit para sugerir el uso de pegamento para que el queso se adhiera a la pizza.
Reid dijo que la empresa también ha agregado más 'limitaciones de activación' para mejorar la calidad de las respuestas a ciertas consultas, como sobre la salud.
Los resúmenes de Google están diseñados para proporcionar a las personas respuestas autoritativas a la información que están buscando lo más rápido posible sin tener que hacer clic a través de una lista clasificada de enlaces de sitios web.
Pero algunos expertos en IA han advertido desde hace tiempo a Google contra ceder sus resultados de búsqueda a respuestas generadas por IA que podrían perpetuar prejuicios y desinformación y poner en peligro a las personas que buscan ayuda en una emergencia. Los sistemas de IA conocidos como grandes modelos de lenguaje funcionan prediciendo qué palabras responderían mejor a las preguntas que se les hacen basándose en los datos en los que han sido entrenados. Son propensos a inventar cosas — un problema ampliamente estudiado conocido como alucinación.
En su publicación de blog del viernes, Reid argumentó que los resúmenes de IA de Google 'por lo general no 'alucinan' ni inventan cosas de la forma en que lo hacen otros' productos basados en modelos de lenguaje grandes porque están más estrechamente integrados con el motor de búsqueda tradicional de Google al mostrar solo lo respaldado por los principales resultados web.
'Cuando los resúmenes de IA se equivocan, generalmente es por otras razones: la interpretación errónea de las consultas, la interpretación errónea de una sutilidad del lenguaje en la web, o no tener mucha información excelente disponible', escribió.