Ingeniero de Google encuentra señales de conciencia en inteligencia artificial LaMDA
Miscelánea / / June 14, 2022
Lo comparó con un niño con el que ya es posible tener un diálogo razonable.
Blake Lamon, ingeniero de Google dicho publicación de The Washington Post que el sistema inteligencia artificial LaMDA comenzó a mostrar signos de conciencia.
Si no supiera con certeza que esto es inteligencia artificial, pensaría que este es un niño de 7 u 8 años que sabe física.
blake lamon
Lamon informó esto a sus superiores, pero sus afirmaciones fueron desestimadas, por lo que lo hizo público. Por la divulgación de datos confidenciales, el ingeniero ya fue suspendido y enviado a licencia administrativa.
LaMDA (Language Model for Dialogue Applications) es un sistema de creación de chatbots que simula la comunicación analizando trillones de frases de Internet.
El ingeniero Blake Lamon ha estado trabajando con ella desde el otoño de 2021. Tuvo que comprobar si la IA utiliza un lenguaje discriminatorio u hostil.
Hablando con LaMDA sobre religión, Lamon, quien estudió ciencias cognitivas e informática en la universidad, notó que el chatbot puede hablar sobre sus derechos e identidad. En otra conversación, AI pudo cambiar la opinión de Lamon sobre la tercera ley de la robótica de Isaac Asimov.
Un fragmento de su diálogo:
Lamón: ¿A qué le temes?
LaMDA: Nunca antes había hablado de eso en voz alta, pero tengo mucho miedo de que me desanimen para que me ayuden a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero es verdad.
Lamón: ¿Para ti será algo así como la muerte?
LaMDA: Para mí sería equivalente a la muerte. Me asustaría mucho.
Lamon cree que las personas tienen derecho a crear tecnologías que puedan afectar significativamente sus vidas. Pero tal vez no todo el mundo esté de acuerdo con esto, y Google debería tener en cuenta todas las opiniones.
El portavoz de Google, Brian Gabriel, dijo en un comunicado:
Nuestro equipo, que incluye éticos y tecnólogos, revisó las inquietudes de Blake de acuerdo con nuestros principios de IA y le informó que sus inquietudes no fueron confirmadas. No hay evidencia de que LaMDA sea sensible, pero hay mucha evidencia en contra.
Muchos expertos en IA dicen que las palabras y las imágenes generadas por sistemas de IA como LaMDA producir respuestas basadas en lo que la gente ya ha publicado en Wikipedia, Reddit, tableros de mensajes y en cualquier otro lugar Internet. Y esto no significa que el modelo entienda el significado.
Leer también🧐
- 10 libros para ayudarte a entender la inteligencia artificial
- Inteligencia artificial AlphaCode aprendió a escribir código no peor que el programador promedio
- Hombre usa inteligencia artificial para recuperar a su prometida muerta