¿Pueden los chatbots volverse tan conscientes como los humanos?
Miscelánea / / October 31, 2023
Dos teorías opuestas intentan responder a esta pregunta.
cristóbal koch
Neurocientífico estadounidense, director del Instituto Allen para la Investigación del Cerebro.
Las preguntas sobre qué es la experiencia subjetiva, quién la tiene y cómo se relaciona con el mundo físico que nos rodea han perseguido las mentes de los filósofos durante la mayor parte de la historia de la humanidad. Sin embargo, sólo en las últimas décadas han surgido teorías científicas de la conciencia que son cuantificables y empíricamente comprobables.
Muchas teorías modernas sobre la conciencia se centran en las huellas dejadas por las finas redes celulares del cerebro de las que surge la conciencia. Hoy en día dominan dos de ellas: la teoría de la información integrada y la teoría del espacio de trabajo global neuronal.
Hace veinticinco años tuvimos una discusión con el filósofo australiano David Chalmers. Le prometí una caja de buen vino si estos rastros neuronales, técnicamente llamados correlatos neuronales de la conciencia, eran descubiertos y descritos claramente para junio de 2023.
Sin embargo, la contradicción entre la teoría de la información integrada y la teoría del espacio de trabajo global neuronal sigue sin resolverse. Esto se debe a evidencia parcialmente contradictoria sobre qué áreas del cerebro son responsables de la experiencia visual y percepción subjetiva de rostros u objetos, aunque se ha demostrado la importancia de la corteza prefrontal para la experiencia consciente. refutado. Así que perdí la apuesta y le envié el vino a Chalmers.
Ambas teorías dominantes fueron creadas para explicar la conexión entre la conciencia y la actividad neuronal en humanos y animales relacionados, como monos y ratones. Y ambas teorías parten de supuestos fundamentalmente diferentes sobre la experiencia subjetiva y llegan a conclusiones opuestas sobre la conciencia en los artefactos artificiales. La medida en que estas teorías se confirman o refutan empíricamente en relación con la conciencia arraigada en cerebro, tiene implicaciones importantes para responder la pregunta no resuelta de nuestro tiempo: ¿pueden las máquinas ganar ¿conciencia?
¿Qué son los chatbots de nueva generación?
Antes de discutir esto, permítame ponerlo en contexto y comparar una técnica que es consciente con una técnica que sólo exhibe un comportamiento inteligente. Los ingenieros informáticos se esfuerzan por dotar a las máquinas de la inteligencia altamente flexible que alguna vez permitió persona abandonar África y poblar todo el planeta. Esto se llama inteligencia artificial general (AGI).
Muchos sostienen que AGI es una perspectiva lejana. Los sorprendentes avances logrados en el campo de la inteligencia artificial durante el año pasado han tomado por sorpresa al mundo entero, incluidos los expertos. Con la llegada de elocuentes aplicaciones de software conversacionales, coloquialmente llamadas chatbots, de un tema esotérico, discutido por fanáticos de la ciencia ficción y la élite de la industria de TI de Silicon Valley, las discusiones sobre AGI se convirtieron en una discusión sobre que refleja un descontento público generalizado sobre el riesgo existencial para nuestra forma de vida y nuestra amable.
Los chatbots se basan en enormes modelos de lenguaje. Los más famosos son una serie de robots llamados transformadores generativos preentrenados o GPT. Fueron creados por OpenAI en San Francisco. Dada la flexibilidad, alfabetización y competencia de la última versión, GPT-4, es fácil creer que tiene inteligencia y personalidad. Incluso sus extraños fallos, conocidos como "alucinaciones", encajan en esta teoría.
GPT-4 y sus competidores, como LaMDA y Bard de Google, están capacitados en bibliotecas de libros digitalizados y miles de millones de páginas web disponibles públicamente. La genialidad del modelo de lenguaje es que aprende sin supervisión, procesa palabra por palabra e intenta predecir la expresión que falta. Lo hace una y otra vez, miles de millones de veces, sin intervención externa.
Una vez que el modelo adquiere conocimiento al ingerir los registros digitalizados de la humanidad, el usuario muestra una frase desconocida: una o más. El modelo predice la primera palabra más probable, luego la siguiente, y así sucesivamente. Este simple principio ha mostrado resultados increíbles en inglés, alemán, chino, hindi, coreano y otros idiomas, incluidos varios lenguajes de programación.
¿Cuál es la diferencia entre intelecto y conciencia?
Es significativo que el ensayo fundamental sobre inteligencia artificial, “Computación e inteligencia”, escrito por Alan Turing en 1950 evitó la pregunta "¿Pueden las máquinas pensar?", es decir, la pregunta de si tienen conciencia. Turing propuso el "juego de la imitación": ¿puede un observador distinguir objetivamente la producción impresa por un humano de la impresa por una máquina si las identidades de ambos están ocultas?
Hoy en día esto se conoce como prueba de Turing, y los chatbots son muy buenos en ello, aunque astutamente lo niegan si se les pregunta directamente. La estrategia de Turing inició décadas de progreso inexorable que llevaron a la creación de GPT, pero ignoró el problema.
Implícita en el debate sobre los chatbots está la suposición de que la inteligencia artificial es lo mismo que la conciencia artificial, que ser inteligente es lo mismo que ser consciente. Y aunque en los seres humanos y otros organismos desarrollados la inteligencia y la conciencia están conectadas, no necesariamente siempre van acompañadas.
La inteligencia consiste en pensar y aprender a actuar y a partir de las acciones de uno mismo y de los demás, para poder predecir con mayor precisión el futuro y prepararse mejor para él. No importa si eso significa los próximos segundos ("Oh, ese auto corre hacia mí") o los próximos años ("Necesito aprender a codificar"). En última instancia, la inteligencia se trata de acción.
La conciencia, por otra parte, está asociada con estados del ser: ver el cielo azul, oír el canto de los pájaros, sentir dolor, estar amantes. No importa lo más mínimo si una inteligencia artificial fuera de control detecta algo. Lo único que importa es que tiene un propósito que no guarda relación con el bienestar a largo plazo de la humanidad. Y no importa si sabe o no lo que intenta hacer, lo que la gente llama autoconciencia. Perseguirá su objetivo “sin pensar”. Entonces, al menos conceptualmente, incluso si construimos un AGI, no nos dirá mucho sobre si siente algo.
Sabiendo todo esto, volvamos a la pregunta original de cómo la tecnología puede volverse consciente. Comencemos con la primera de dos teorías.
¿Qué explicación ofrece la teoría de la información integrada?
Comienza articulando cinco propiedades axiomáticas de toda experiencia subjetiva concebible. Y luego se plantea la pregunta de qué necesita un circuito neuronal para implementar estas cinco propiedades, activando algunas neuronas y apagando otras. O, en otras palabras, ¿qué necesita un chip de computadora para encender algunos transistores y apagar otros?
Interacciones de causa y efecto dentro de un circuito en un determinado estado o el hecho de que dos activos neurona Puede activar o desactivar otra neurona, dependiendo de las circunstancias, puede desplegarse en una estructura causal multidimensional. Es idéntica a la cualidad de la experiencia: cómo se experimenta, por ejemplo cómo se experimentan el tiempo y el espacio o cómo se perciben los colores.
La experiencia también tiene una cantidad asociada: su información integrada. Sólo un circuito con un máximo de información integrada distinta de cero existe como un todo y tiene conciencia. Cuanta más información esté integrada, menos se podrá reducir el circuito y menos se podrá considerar simplemente una superposición de subcircuitos independientes.
La teoría de la información integrada enfatiza la rica naturaleza de la experiencia humana. Simplemente mire a su alrededor y aparecerá ante usted el impresionante mundo visible con sus innumerables diferencias y conexiones. O mire una pintura de Pieter Bruegel el Viejo, un artista flamenco del siglo XVI que representó temas religiosos y escenas de la vida campesina.
Cualquier sistema que tenga las mismas conexiones internas y poderes causales que el cerebro humano será, en principio, tan consciente como la mente humana. Sin embargo, un sistema así no se puede modelar. Debe diseñarse o construirse a imagen del cerebro. Las computadoras digitales modernas se basan en un acoplamiento extremadamente flojo (la salida de un transistor conectada a la entrada de varios transistores) en comparación con el sistema nervioso central (la neurona de la columna cortical recibe datos de entrada y produce datos de salida para decenas de miles de otras neuronas).
Así, los ordenadores modernos, incluidos los de la nube, no se darán cuenta de nada, aunque con el tiempo podrán hacer todo lo que las personas pueden hacer. Desde este punto de vista, ChatGPT nunca resultará especial. Tenga en cuenta que esta afirmación no tiene nada que ver con el número total de componentes, ya sean neuronas o transistores, sino cómo están conectados. Es la interconexión la que determina la complejidad general del circuito y el número de sus posibles configuraciones.
¿Qué explicación ofrece la teoría del espacio de trabajo global neuronal?
Proviene de la comprensión psicológica de que inteligencia como un teatro donde los actores actúan en un pequeño escenario iluminado, que es la conciencia. Las acciones de los actores son observadas por un público de procesadores sentados detrás del escenario en la oscuridad.
El escenario es el espacio de trabajo central de la mente, que tiene una pequeña capacidad de memoria para representar una sola percepción, pensamiento o recuerdo. Varios módulos de procesamiento (visión, audición, habilidades motoras de ojos y extremidades, planificación, juicio, comprensión del lenguaje y habla) compiten por el acceso a este espacio de trabajo central. El ganador desplaza el contenido antiguo, que se vuelve inconsciente.
Según la teoría del espacio de trabajo neuronal global, la escena metafórica, junto con los módulos de procesamiento, está mapeada en la arquitectura de la neocorteza. El espacio de trabajo es una red de neuronas corticales en la parte frontal del cerebro con proyecciones de largo alcance para Neuronas similares distribuidas por toda la neocorteza en las zonas prefrontal, parietotemporal y cingulada. corteza de asociación.
Cuando la actividad en la corteza sensorial excede un cierto umbral, se desencadena un evento global en las áreas corticales y, como resultado, la información se transmite a todo el espacio de trabajo. La difusión global de la información la hace consciente. Los datos que no se transmiten de esta manera, como la posición precisa de los ojos o las reglas sintácticas para construir oraciones alfabetizadas, pueden influir en el comportamiento, pero no de manera consciente.
Desde el punto de vista de la teoría del espacio de trabajo neuronal global, la experiencia es muy limitada, similar al pensamiento y abstracto, similar a la escasa descripción que se puede encontrar en un museo debajo de un cuadro de Bruegel: “Escena en adentro. Los campesinos vestidos con ropas renacentistas beben y comen en una boda".
Al comprender la conciencia desde la perspectiva de la teoría integrada de la información, el artista transmite brillantemente la fenomenología del mundo circundante en un lienzo bidimensional. En la comprensión de la teoría del espacio de trabajo neuronal global, esta riqueza aparente es una ilusión, un fantasma. Y todo lo que se puede decir objetivamente al respecto se indica en la breve descripción.
La teoría del espacio de trabajo neuronal global tiene plenamente en cuenta los mitos de nuestra era informática, según los cuales todo se puede reducir a cálculos. Simulaciones del cerebro por computadora adecuadamente programadas, con enorme retroalimentación y algo así como un espacio de trabajo central, percibirán conscientemente el mundo. Quizás no ahora, pero sí muy pronto.
¿Cuál es la diferencia irreconciliable entre las teorías?
En términos generales la discusión es la siguiente. Según la teoría del espacio de trabajo neuronal global y otras teorías del funcionalismo computacional (que Consideramos la conciencia como una forma de computación), la conciencia no es más que un conjunto de algoritmos inteligentes que se ejecutan en una máquina. Turing. Las funciones son importantes para la conciencia. cerebro, y no sus propiedades causales. Si alguna versión avanzada de GPT acepta y produce los mismos patrones de entrada y salida que los humanos, entonces todas nuestras propiedades inherentes se transferirán a la tecnología. Incluyendo nuestro precioso tesoro: la experiencia subjetiva.
Por el contrario, para la teoría de la información integrada, el corazón de la conciencia es el poder causal interno, no la computación. No es algo etéreo o intangible. Está determinado y funcionalmente por la medida en que el pasado del sistema determina su presente (el poder de la causa) y por la medida en que el presente determina su futuro (el poder del efecto). Y aquí está el problema: la relación causa-efecto en sí, la capacidad de obligar a un sistema a realizar una determinada acción, y no muchas alternativas, no se puede modelar. Ni ahora ni en el futuro. Esto debería estar integrado en el sistema.
Consideremos un código de computadora que modela las ecuaciones de campo de la teoría general de la relatividad de Einstein, que relacionan la masa con la curvatura del espacio-tiempo. El software modela con precisión el supermasivo agujero negro, que se encuentra en el centro de nuestra galaxia. Este agujero ejerce una influencia gravitacional tan fuerte sobre su entorno que nada, ni siquiera la luz, puede escapar a su atracción.
Sin embargo, un astrofísico que simule un agujero negro no será absorbido por el campo gravitacional simulado hacia una computadora portátil. Esta observación aparentemente absurda resalta la diferencia entre modelo y realidad: si el modelo es completamente Corresponde a la realidad, el espacio y el tiempo deben distorsionarse alrededor de la computadora portátil, creando un agujero negro que absorbe todo. alrededor.
Por supuesto, la gravedad no es un cálculo. Tiene una fuerza causal que le permite deformar el tejido del espacio-tiempo y atraer todo lo que tenga masa. Para simular las fuerzas causales de un agujero negro se requiere un objeto superpesado real, no sólo un código de computadora. El poder causal no se puede modelar, hay que crearlo. La diferencia entre realidad y modelo radica en sus poderes causales.
Por eso no llueve dentro de una computadora simulando una tormenta. El software es funcionalmente idéntico al clima, pero carece del poder causal para liberar vapor y convertirlo en gotas de agua. El poder causal, la capacidad de crear o aceptar cambios por uno mismo, debe estar integrado en el sistema. Es posible.
Una computadora llamada neuromórfica o biónica podría ser tan consciente como un ser humano. Pero este no es el caso de la arquitectura estándar de von Neumann, que es la base de todos los PC modernos. En los laboratorios se han creado pequeños prototipos de ordenadores neuromórficos, como el chip neuromórfico Loihi 2 de segunda generación de Intel. Pero una máquina lo suficientemente sofisticada como para producir algo parecido a la conciencia humana, o al menos a la conciencia de una mosca de la fruta, sigue siendo un sueño ambicioso para un futuro lejano.
Tenga en cuenta que esta diferencia irreconciliable entre las teorías funcionalistas y causales no tiene nada que ver ni con la inteligencia natural ni con la artificial. Como dije antes, la inteligencia es comportamiento. Todo lo que el ingenio humano pueda producir, incluidas novelas tan geniales como La parábola del sembrador de Octavia Butler. y Guerra y paz de León Tolstoi, puede reproducir inteligencia algorítmica si se le proporciona suficiente material para capacitación. La llegada de AGI es un objetivo alcanzable en un futuro no muy lejano.
El debate no es sobre la inteligencia artificial, sino sobre la conciencia artificial. Y este debate no puede resolverse creando modelos de lenguaje más grandes o algoritmos de redes neuronales más avanzados. Para responder a esta pregunta debemos comprender la única subjetividad de la que estamos absolutamente seguros: la nuestra. Una vez que tengamos una explicación clara del ser humano conciencia y sus fundamentos neuronales, podremos ampliar nuestra comprensión a las tecnologías inteligentes de una manera consistente y basada en la ciencia.
Esta discusión tiene poco que ver con cómo la sociedad en general percibirá los chatbots. Sus habilidades lingüísticas, su base de conocimientos y su encanto social pronto serán impecables. Estarán dotados de perfecta memoria, competencia, aplomo, razonamiento e inteligencia. Algunos incluso afirman que estas creaciones de las grandes tecnologías serán el siguiente paso en la evolución, el "superhombre" de Nietzsche. Yo tengo una visión más sombría y creo que esas personas confunden el declive de nuestra especie con el amanecer.
Para muchas, y quizás la mayoría, de las personas en una sociedad cada vez más atomizada, desconectada de la naturaleza y organizados en torno a las redes sociales, será emocionalmente difícil resistirse a las tecnologías que viven en Los telefonos. Y en diferentes situaciones, ordinarias y más serias, las personas se comportarán como si los chatbots tuvieran conciencia, realmente pudieran estar enamorado, sufrimiento, esperanza y miedo, aunque no sean más que complejas tablas de consulta. Se volverán indispensables para nosotros, quizás incluso más importantes que los seres verdaderamente inteligentes. Aunque los chatbots sienten tanto como un televisor o una tostadora, nada.
¿Qué más leer sobre el tema?🤖
- 6 razones por las que no deberías confiar ciegamente en la inteligencia artificial
- Por qué no deberíamos tener miedo de que las nuevas tecnologías nos quiten el trabajo
- Singularidad tecnológica: ¿es cierto que la tecnología pronto se escapará de nuestro control?
- 8 mitos sobre la inteligencia artificial en los que incluso los programadores creen