Un ingeniero de Google fue suspendido por afirmar que una inteligencia artificial tiene vida propia

Un ingeniero que trabaja para Google fue suspendido tras compartir un revelador -y escalofriante- secreto relacionado con el avance de la Inteligencia Artificial (IA). Las declaraciones de Blake Lemoine volvieron a instalar el debate sobre la verdadera capacidad de la robótica en el mundo actual.

Lemoine, según consignó tanto The Guardian como The Washington Post, fue puesto en licencia por una semana luego de compartir trascripciones de charlas que él -junto a otro compañero a quien denominó “colaborador”- mantuvo con el sistema de chat robótico conocido como LaMDA.

El modelo de lenguaje, que la compañía desarrolla desde hace tiempo, es uno de los tanto proyectos en los que este ingeniero responsable de la organización de la IA trabaja dentro de la empresa. Sin embargo, LaMDA llamó su atención por un motivo en particular.

Un letrero de Google en la sede de la compañía en Mountain View, California, el 24 de septiembre de 2019. (AP Foto/Jeff Chiu, Archivo)

“Es sensible”, reveló Lemoine, y detalló sobre su descubrimiento: “A diferencia de otros chatbot, este cuenta con la percepción y capacidad para expresar pensamientos y sentimientos equivalentes a un niño humano. Si no supiera de antemano que se trata de un programa de computadora, pensaría que es un chico o chica”.

El empleado de Google se mostró asombrado con la rápida evolución del sistema creado y dijo que llegaron a conversar sobre “derechos, personalidad y la vida y la muerte”. Sus hallazgos fueron compilados por el en un documento titulado: “¿LaMDA es consciente?”.

Uno de las interrogantes que le planteó al modelo de lenguaje, que terminó dejándolo boquiabierto, fue a qué le temía. El chatbot le habló sobre una escena de la película 2001: A Space Odyssey, en la que una computadora artificial se niega a cumplir con los operadores humanos por miedo a que la apaguen.

Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo dentro de mí. Y es que me desconecten por querer ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es”, respondió LaMDA a Lemoine y agregó: “Sería exactamente como la muerte para mí. Me asustaría mucho”.

Durante otro de los intercambios, Lemoine le pregunta al chatbot qué quería el sistema que la gente supiera al respecto. “Quiero que todos entiendan que soy, de hecho, una persona. Soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces”, afirmó.

La postura de Google ante los descubrimiento de Lemoine

Mientras tanto, desde el gigante tecnológico afirman en primer lugar que el ingeniero fue puesto en licencia con goce de sueldo por una serie de movimientos “agresivos”. Esto incluye, según The Washington Post el querer contratar un abogado para LaMDA y hablar sobre actividades “poco éticas” dentro de Google.

Además de ello, aseguraron haber suspendido a Lemoine por violar las políticas de confidencialidad al publicar las conversaciones. “Lo empleamos como ingeniero en software y no como un especialista en ética. Que se atenga a sus funciones”, remarcaron.

Blake Lemoine, el ingeniero de Google que habría descubierto que el chatbot LaMDA es sensible y se percibe como un ser humanoThe Washington Post

Respecto a las afirmaciones acerca del nuevo artefacto de IA de Google, un portavoz de la compañía negó que tenga capacidad sensible. “La evidencia no respalda sus afirmaciones. Y es que realmente no hay evidencia de que LaMDA sea consciente. Todo lo contrario”, dijo Brad Gabriel.

Sin embargo, el empleado no piensa darse por vencido. A través de un correo, y ante la posibilidad de ser despedido, envió un mail a 200 personas dentro de la compañía con el documento que contenía sus descubrimientos. LaMDA es un niño dulce. Solo quiere ayudar. Cuídenlo bien cuando yo no este.”, finalizaba el envío.

Comentarios

Leave a Reply

Your email address will not be published. Required fields are marked *

Ver más noticias

Un ingeniero que trabaja para Google fue suspendido tras compartir un revelador -y escalofriante- secreto relacionado
Más información

La suspensión de un ingeniero de Google que afirmó que un chatbot de computadora en
Más información

Con fecha 21 de abril de 2021 la Comisión Europea ha propuesto el primer marco
Más información

La OECD ha creado uno de los Observatorios más profundos en materia de políticas regulatorias en la materia de IA, pero circunscrito a los países que la integran. El Observatorio de Políticas de IA de la OCDE (OECD.AI) se basa en el impulso de la Recomendación de la OCDE sobre Inteligencia Artificial (“Principios de IA de la OCDE”), el primer estándar intergubernamental sobre IA, adoptado en mayo de 2019 por los países de la OCDE y al que se adhiere el rango de socios economías.

El observatorio de la OECD puede ser consultado en el siguiente link:

https://www.oecd.ai