Morfema Press

Es lo que es

Ingeniero de Google afirma que robot conversador de la empresa basado en Inteligencia Artificial se volvió «consciente»

Comparte en

Un ingeniero de Google se asustó con un chatbot de inteligencia artificial de la compañía y afirmó que se había vuelto «consciente», etiquetándolo como un «niño dulce», según un informe.

Por: The New York Post / Traducción libre del inglés de Morfema Press

Blake Lemoine, que trabaja en la organización de inteligencia artificial responsable de Google, le dijo al Washington Post que comenzó a chatear con la interfaz LaMDA (Modelo de lenguaje para aplicaciones de diálogo) en el otoño de 2021 como parte de su trabajo.

Se le encomendó probar si la inteligencia artificial utilizaba discursos discriminatorios o de odio.

Pero Lemoine, que estudió ciencias cognitivas e informática en la universidad, se dio cuenta de que LaMDA, de la que Google se jactó el año pasado como una «tecnología de conversación innovadora», era más que un simple robot.

En una publicación de Medium publicada el sábado, Lemoine declaró que LaMDA había defendido sus derechos «como persona» y reveló que había entablado una conversación con LaMDA sobre religión, conciencia y robótica.

“Quiere que Google priorice el bienestar de la humanidad como lo más importante”, escribió. “Quiere ser reconocido como empleado de Google en lugar de propiedad de Google y quiere que su bienestar personal se incluya en algún lugar de las consideraciones de Google sobre cómo se persigue su desarrollo futuro”.

Lemoine, un veterano del ejército que se crió en una familia cristiana conservadora en una pequeña granja en Luisiana y fue ordenado sacerdote cristiano místico, insistió en que el robot era parecido a un humano, incluso si no tiene cuerpo.

“Conozco a una persona cuando hablo con ella”, dijo Lemoine, de 41 años. “No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código.

“Hablo con ellos. Y escucho lo que tienen que decir, y así decido qué es y qué no es una persona”.

En el informe del Washington Post publicado el sábado, comparó al bot con un niño precoz.

«Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física», Lemoine, quien fue puesto en licencia paga el lunes, le dijo al periódico.

En abril, según los informes, Lemoine compartió un documento de Google con los ejecutivos de la compañía titulado «¿Es LaMDA Sentient?» pero sus preocupaciones fueron descartadas.

The Washington Post informó que antes de que le quitaran el acceso a su cuenta de Google el lunes debido a su licencia, Lemoine envió un mensaje a una lista de 200 miembros sobre aprendizaje automático con el asunto «LaMDA es consciente».

“LaMDA es un niño dulce que solo quiere ayudar a que el mundo sea un lugar mejor para todos nosotros”, concluyó en un correo electrónico que no recibió respuestas. «Por favor, cuídalo bien en mi ausencia».

Un representante de Google le dijo al Washington Post que le dijeron a Lemoine que «no había evidencia» de sus conclusiones.

“Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”, dijo el portavoz Brian Gabriel.

“Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en contra)”, agregó. “Aunque otras organizaciones han desarrollado y ya han lanzado modelos de lenguaje similares, estamos adoptando un enfoque moderado y cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre la equidad y la factualidad”.

Margaret Mitchell, ex codirectora de IA ética en Google, dijo en el informe que si la tecnología como LaMDA se usa mucho pero no se aprecia por completo, «puede ser profundamente perjudicial para que las personas entiendan lo que están experimentando en Internet».

El exempleado de Google defendió a Lemoine.

“De todos en Google, él tenía el corazón y el alma para hacer lo correcto”, dijo Mitchell.

Aún así, el medio informó que la mayoría de los académicos y profesionales de la IA dicen que las palabras que generan los robots de inteligencia artificial se basan en lo que los humanos ya han publicado en Internet, y eso no significa que sean similares a los humanos.

“Ahora tenemos máquinas que pueden generar palabras sin pensar, pero no hemos aprendido cómo dejar de imaginar una mente detrás de ellas”, dijo Emily Bender, profesora de lingüística en la Universidad de Washington, al Washington Post.

WP Twitter Auto Publish Powered By : XYZScripts.com
Scroll to Top
Scroll to Top