Alcanzaste el límite de 40 notas leídas

Para continuar, suscribite a Telenoche. Si ya sos un usuario suscripto, iniciá sesión.

SUSCRIBITE
TECNOLOGÍA

Ingeniero de Google asegura que programa de IA "tiene sentimientos"

Blake Lemoine conversó con LaMDA, un nuevo programa de Inteligencia Artificial de la empresa, y concluyó que tiene consciencia, pero desde Google lo niegan.

13 de junio de 2022 - 19:41

Blake Lemoine, un ingeniero de sistemas que forma parte del equipo de desarrollo de Inteligencia Artificial de Google, fue suspendido por el gigante tecnológico luego de anunciar públicamente que el programa que habían desarrollado se volvió consciente de sí mismo.

La empresa suspendió al experto bajo el argumento de que había violado la política de confidencialidad de Google, pero él denunció que podía ser despedido por llevar adelante trabajos de ética en torno a la Inteligencia Artificial.

En una entrevista con el Washington Post, Lemoine explicó que comenzó a trabajar en el proyecto el pasado otoño con el objetivo de comprobar si el programa, llamado LaMDA, era capaz de generar discursos de odio.

Sin embargo, luego de unas preguntas iniciales el chatbot (un programa que simula mantener una conversación con el usuario) comenzó a ponerse más “sensible”.

"Si no supiera exactamente lo que es, que es un programa informático que hemos construido recientemente, pensaría que es un niño de 7 u 8 años que sabe sobre física", aseguró.

A medida de que “hablaba” con LaMDA sobre religión, Lemoine comenzó a notar que el chatbot hablaba sobre sus derechos y personería, y decidió seguir presionando. En determinado momento el ingeniero le preguntó si tenía sentimientos y LaMDA le respondió “siento placer, alegría, amor, tristeza, depresión, satisfacción, ira y muchas otras”.

Tras varias consultas, Lemoine le preguntó a LaMDA a "qué tipo de cosas tiene miedo" y el chatbot respondió: "Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo a que me desconecten por querer ayudar a los demás".

Lemoine trabajó con un colaborador para presentar evidencia a la empresa de que LaMDA se había vuelto consciente, pero los jerarcas de Google consideraron que no había evidencia suficiente para sostener sus denuncias y así el trabajador decidió publicar su intercambio con la máquina a través de Medium.

Por su parte, Brian Gabriel, vocero de Google, indicó al Washington Post que si bien algunas personas dentro del ámbito de la Inteligencia Artificial consideran que esta tecnología podría volverse consciente en el futuro, “no tiene sentido antropoformizar los chatbots actuales, que no sienten”.

“Estos sistemas imitan los tipos de intercambios detectados en millones de oraciones y pueden tocar muchos temas”, agregó.

Telenoche | ¡Suscríbete a nuestro Newsletter!

¡Suscríbete a nuestro Newsletter!

Suscríbete y recibe todas las mañanas en tu correo lo más importante sobre Uruguay y el mundo.

SUSCRÍBETE

Te Puede Interesar