10 preguntas vergonzosas sobre redes neuronales: Igor Kotenkov, especialista en aprendizaje automático, responde
Miscelánea / / August 08, 2023
Hemos recopilado todo lo que quería saber, pero era demasiado tímido para preguntar.
En el nuevo serie Los artículos de reconocidos expertos responden a preguntas que suelen dar vergüenza hacer: parece que todo el mundo ya lo sabe, y el que pregunta parecerá un estúpido.
Esta vez hablamos con el especialista en inteligencia artificial Igor Kotenkov. Aprenderá si puede guardar su copia digital para sus bisnietos, por qué no se puede confiar al 100% en las neuronas y si el mundo está en peligro de un levantamiento de máquinas.
Ígor Kotenkov
1. ¿Cómo funcionan las redes neuronales? Es una especie de magia. ¿Cómo se podría hacer ChatGPT? ¿Y Midjourney o DALL-E?
Una red neuronal es un modelo matemático inventado con miras a comprender cómo funciona el cerebro de un organismo vivo. Es cierto que se tomaron como base las ideas más básicas de principios de la segunda mitad del siglo XX, que ahora pueden llamarse irrelevantes o demasiado simplificadas.
Incluso el nombre "red neuronal" proviene de la palabra "neurona": este es el nombre de una de las principales unidades funcionales del cerebro. Las propias redes neuronales consisten en nodos: neuronas artificiales. Entonces podemos decir que muchas ideas de arquitecturas modernas fueron “asomadas” de la propia naturaleza.
Pero lo que es más importante, la red neuronal es un modelo matemático. Y dado que esto es algo relacionado con las matemáticas, podemos usar todo el poder del aparato matemático para descubrir o evaluar las propiedades de dicho modelo. Puede considerar una red neuronal como una función, y una función también es un objeto matemático. El ejemplo más simple y comprensible: una función que, digamos, toma cualquier número como entrada y le suma 2: f (4) = 6, f (10) = 12.
Pero tal función es muy fácil de programar, incluso un niño puede manejarla después de un par de horas de aprendizaje de idiomas. programación. Y la razón es que tal función se formaliza muy fácilmente, se describe en detalle en un lenguaje simple y comprensible.
Sin embargo, hay algunas tareas que ni siquiera sabemos cómo abordar. Por ejemplo, puedo darte fotos de gatos y perros mezclados, y puedes ordenarlos en dos montones sin ningún problema. Pero, ¿qué es exactamente lo que te guía al determinar la respuesta? Ambos son esponjosos. Ambas especies tienen cola, orejas, dos ojos. ¿Quizás el tamaño? Pero hay perros muy pequeños, hay grandes felinos.
No podemos describir muchas tareas del mundo real, no conocemos la dependencia de nuestra observación y alguna respuesta "correcta" condicional.
Solo sabemos cómo dar esta respuesta, y eso es todo, sin pensar en cómo resulta.
Aquí es donde las redes neuronales vienen al rescate. Estas funciones matemáticas se entrenan a partir de los datos. No es necesario que describa la relación entre la entrada y la salida. Simplemente prepara dos pilas de fotos y el modelo se entrena para dar las respuestas correctas. Ella misma aprende a encontrar esta conexión, la encuentra ella misma, apoyándose en erroresque hace. ¿Confundido un gato bengalí y un rottweiler? Bueno, ¡será mejor la próxima vez!
El proceso de aprendizaje de una red neuronal es un ajuste de "neuronas" para aprender a resolver un problema y dar la respuesta correcta. Y lo que es más notable: existe una prueba teórica de que una red neuronal suficientemente grande con un conjunto de datos suficientemente grande puede aprender cualquier función compleja. Pero lo más importante aquí es el poder de cómputo (porque la neurona puede ser muy grande) y la disponibilidad de datos etiquetados. Es decir, marcados, es decir, que tengan la clase “perro”, gato o lo que sea.
No entendemos completamente cómo funcionan los modelos: los modelos más complejos y grandes como ChatGPT casi inanalizable.
Los mejores investigadores están trabajando en el desafío de "comprender" el funcionamiento interno de sus procesos en este momento.
Pero sabemos para qué tarea fueron entrenados los modelos, qué error intentaron minimizar durante el entrenamiento. Para ChatGPT, la tarea consta de dos. El primero es la predicción de la siguiente palabra según su contexto: “mamá lavó…” ¿Qué? Esto es lo que el modelo debería predecir.
La segunda tarea es asegurarse de que las respuestas no sean ofensivas, pero al mismo tiempo sigan siendo útiles y comprensibles. Es por eso que el modelo se volvió viral: ¡está entrenado directamente para generar el tipo de texto que le gusta a la gente!
Puede leer más sobre cómo funciona ChatGPT en mi artículo.
2. ¿Las neuronas pueden pensar?
Los científicos todavía no entienden qué significa "pensar" o "razonar" y cómo funciona el intelecto en general. Por lo tanto, es difícil juzgar si un modelo como ChatGPT tiene tales propiedades.
Imaginemos una situación: te acercas a la puerta de tu apartamento. ¿Tienes la idea de que necesitas sacar la llave del bolsillo izquierdo de tu mochila para abrir la puerta? ¿Podemos decir que la descripción y presentación de acciones es un proceso de pensamiento? En esencia, hemos establecido una relación entre el estado actual y el objetivo deseado (puerta abierta). Si crees que la respuesta a la pregunta anterior es sí, entonces mi respuesta sería la misma. 🙂
Otra cosa es cuando se trata de pensamientos innovadores que no se han expresado antes o no son tan comunes. Después de todo, por ejemplo, puede encontrar fallas fácilmente en el ejemplo anterior: "Sí, leí este modelo 100500 veces en Internet y en libros. ¡Claro que ella lo sabe! Nada sorprendente". Por cierto, ¿cómo lo supiste? ¿Es porque tus padres te lo mostraron en la infancia y observaste el proceso durante cientos de días seguidos?
En este caso, no hay una respuesta exacta. Y el punto aquí es que no tomamos en cuenta un componente importante: la probabilidad.
¿Qué tan probable es que el modelo genere un pensamiento que se ajuste a su definición específica de "pensamiento"?
Después de todo, se puede hacer que una neurona como ChatGPT genere un millón de respuestas diferentes a la misma solicitud. Por ejemplo, "proponga una idea para investigación científica». Si una generación en un millón es realmente interesante y nueva, ¿eso cuenta como prueba de que un modelo puede dar a luz una idea? Pero, ¿cómo será esto diferente de un loro que grita palabras aleatorias que no, y se suman a algo comprensible?
Por otro lado, las personas tampoco siempre dan pensamientos correctos: algunas frases conducen a un callejón sin salida y terminan en nada. ¿Por qué las redes neuronales no pueden perdonar esto? Bueno, una idea nueva entre un millón generada es realmente mala... Pero, ¿y si 100 entre un millón? ¿Mil? ¿Dónde está esta frontera?
Esto es lo que no sabemos. La tendencia es que al principio pensamos que será difícil que las máquinas resuelvan el problema X. Por ejemplo, para pasar la prueba de Turing, donde solo necesitas chatear con una persona durante media hora. Luego, con el desarrollo de la tecnología, las personas encuentran formas de resolver, o más bien, entrenar modelos para una tarea. Y decimos: "Bueno, en realidad fue la prueba equivocada, aquí hay una nueva para ti, ¡las neuronas definitivamente no podrán pasarla!" Y la situación se repite.
Esas tecnologías que existen ahora, hace 80 años, habrían sido percibidas como un milagro. Y ahora estamos tratando con todas nuestras fuerzas de empujar el límite de la "razonabilidad" para no admitirnos a nosotros mismos que las máquinas ya saben cómo pensar. De hecho, incluso es posible que primero inventemos algo, y luego post factum y retrospectivamente lo definamos como IA.
3. Si las neuronas pueden dibujar y escribir poesía, ¿entonces pueden ser creativas y casi como las personas?
La respuesta en realidad se basa en gran medida en la información anterior. ¿Qué es la creatividad? ¿Cuánta creatividad hay en la persona promedio? ¿Estás seguro de que un conserje de Siberia sabe crear? ¿Y por qué?
¿Qué pasa si un modelo puede producir un poema o una pintura que, condicionalmente, llegue a la final de un concurso de la ciudad para escritores aficionados o artistas infantiles? ¿Y si esto sucede no todas las veces, sino una de cada cien?
La mayoría de estas preguntas son discutibles. Si le parece que la respuesta es obvia, intente entrevistar a sus amigos y familiares. Con una probabilidad muy alta, su punto de vista no coincidirá con el tuyo. Y aquí lo principal no es disputa.
4. ¿Es posible confiar en las respuestas de las redes neuronales y ya no googlear?
Todo depende de cómo se utilicen los modelos. Si les hace una pregunta sin contexto, sin información adjunta en el aviso, y espera una respuesta sobre temas en los que la precisión de los hechos es importante, y no el tono general de la respuesta (por ejemplo, una secuencia de eventos dentro de un período determinado, pero sin una mención exacta de lugares y fechas), entonces la respuesta es No.
por nacional estimado OpenAI, en tales situaciones, el mejor modelo hasta la fecha, GPT-4, responde correctamente en aproximadamente el 70-80% de los casos, según el tema de las preguntas.
Puede parecer que estos números están muy lejos de la "precisión" ideal del 100% real. Pero, de hecho, este es un gran salto en comparación con la generación anterior de modelos (ChatGPT, basado en la arquitectura GPT-3.5), que tenían una precisión del 40-50%. Resulta que tal salto se realizó en el marco de 6-8 meses de investigación.
Está claro que cuanto más nos acerquemos al 100%, más difícil será hacer algunas correcciones para no “romper” nada en la comprensión y conocimiento del modelo.
Sin embargo, todo lo anterior se refiere a preguntas sin contexto. Por ejemplo, puede preguntar: “¿Cuándo fue Einstein? El modelo debe basarse únicamente en el conocimiento interno que se "instaló" en él en la etapa de capacitación a largo plazo sobre datos de todo Internet. ¡Entonces la persona no podrá responder! Pero si me dieran una página de Wikipedia, entonces podría leerla y responder según la fuente de información. Entonces la corrección de las respuestas estaría cerca del 100% (ajustado por la corrección de la fuente).
En consecuencia, si se proporciona al modelo un contexto en el que se contiene la información, la respuesta será mucho más fiable.
Pero, ¿y si dejamos que el modelo busque en Google y busque fuentes de información en Internet? ¿Para que ella misma encuentre la fuente y construya una respuesta basada en ella? Bueno, ¡esto ya se ha hecho! Por lo tanto, no puede buscar en Google usted mismo, sino delegar parte de la búsqueda en Internet al propio GPT‑4. Sin embargo, esto requiere una suscripción paga.
En cuanto a un mayor progreso en el desarrollo de la confiabilidad de la información fáctica dentro del modelo, el CEO de OpenAI, Sam Altman da una estimación de 1,5 a 2 años para resolver este problema por parte de un equipo de investigadores. ¡Lo estaremos esperando con muchas ganas! Pero por ahora, ten en cuenta que no necesitas confiar al 100% en lo que escribe una neurona, y revisa al menos las fuentes.
5. ¿Es cierto que las redes neuronales roban dibujos de artistas reales?
Sí y no: ambos lados del conflicto están discutiendo activamente sobre esto en los tribunales de todo el mundo. Se puede decir con certeza que las imágenes no se almacenan directamente en los modelos, solo aparece la "vigilancia".
en este plano neuronas muy similar a las personas que primero estudian arte, diferentes estilos, miran el trabajo de los autores y luego tratan de imitar.
Sin embargo, los modelos aprenden, como ya hemos descubierto, de acuerdo con el principio de minimización de errores. Y si durante el entrenamiento la modelo ve la misma imagen (o muy similar) cientos de veces, entonces, desde su punto de vista, la mejor estrategia es recordar la imagen.
Tomemos un ejemplo: tu profesor en la escuela de arte eligió una estrategia muy extraña. Haces dos dibujos todos los días: el primero es siempre único, con un estilo nuevo, y el segundo es la Mona Lisa. Después de un año, intentas evaluar lo que has aprendido. Como has dibujado la Mona Lisa más de 300 veces, recuerdas casi todos los detalles y ahora puedes reproducirla. No será el original exacto, y seguramente agregará algo propio. Colores será ligeramente diferente.
Y ahora te piden que dibujes algo que fue hace 100 días (y que viste una vez). Reproducirás lo que se requiere con mucha menos precisión. Solo porque la mano no está rellena.
Es lo mismo con las neuronas: aprenden de la misma manera en todas las imágenes, solo que algunas son más comunes, lo que significa que el modelo también es multado durante el entrenamiento con más frecuencia. Esto se aplica no solo a las pinturas de artistas, a cualquier imagen (incluso publicidad) en la muestra de capacitación. Ahora bien, existen métodos para eliminar duplicados (porque el entrenamiento en ellos es al menos ineficiente), pero no son perfectos. La investigación muestra que hay imágenes que ocurren 400-500 veces durante un entrenamiento.
Mi veredicto: las redes neuronales no roban imágenes, sino que simplemente consideran los dibujos como ejemplos. Cuanto más popular es el ejemplo, con mayor precisión lo reproduce el modelo.
La gente hace lo mismo durante el entrenamiento: miran la belleza, estudian los detalles, los estilos de diferentes artistas. Pero para los artistas o fotógrafos que han pasado la mitad de su vida aprendiendo un oficio, el punto de vista suele ser radicalmente diferente al descrito anteriormente.
6. ¿Es cierto que “todo está perdido” y las redes neuronales le quitarán trabajo a la gente? ¿A quién le importa más?
Es importante separar solo las "redes neuronales" que realizan ciertas tareas de las redes neuronales de propósito general como ChatGPT. Estos últimos son muy buenos para seguir instrucciones y pueden aprender de ejemplos en contexto. Es cierto que ahora el tamaño de su "memoria" está limitado a 10-50 páginas de texto, al igual que las habilidades de reflexión y planificación.
Pero si el trabajo de alguien se reduce a la ejecución rutinaria de instrucciones y esto es fácil de aprender en un par de días leyendo artículos (o si toda Internet está llena de esta información), y el costo de la mano de obra está por encima del promedio; pronto, ese trabajo automatizar.
Pero por sí misma, la automatización no significa un reemplazo completo de personas. Solo se puede optimizar una parte del trabajo rutinario.
Una persona comenzará a realizar tareas más interesantes y creativas que la máquina (hasta ahora) no puede hacer frente.
Si damos ejemplos, entonces al grupo de cambiables o reemplazables profesiones Incluiría, digamos, asistentes de impuestos, consultores que ayudan a preparar una declaración y verifican errores típicos, identifican inconsistencias. Los cambios son posibles en una especialidad como el administrador de datos de ensayos clínicos: la esencia del trabajo es completar informes y conciliarlos con una tabla de estándares.
Pero un cocinero o un conductor de autobús estarán en demanda por mucho más tiempo simplemente porque pueden conectar redes neuronales y un verdadero el mundo físico es bastante complicado, especialmente en términos de legislación y regulaciones - gracias a los burócratas por alejarse ¡Crisis IA!
Se esperan grandes cambios en las industrias asociadas a los materiales impresos y la información textual: periodismo, educación. Con una probabilidad muy alta para lo primero, las neuronas muy pronto escribirán borradores con un conjunto de tesis, en las que las personas ya harán cambios de puntos.
Estoy muy complacido con los cambios en el campo de la educación. Comer investigación, que muestran que la calidad de la educación depende directamente de la "personalidad" del enfoque y de cuánto tiempo dedica el docente a un estudiante en particular. El ejemplo más simple: enseñar en grupos de 30 personas usando un libro de texto es mucho peor que enseñar individualmente tutor para necesidades específicas (aunque de acuerdo con el mismo programa que en el libro de texto). Con el desarrollo de la IA, la humanidad tendrá la oportunidad de brindar un asistente personalizado a cada alumno. ¡Es simplemente increíble! El papel del maestro cambiará, como yo lo veo, a uno estratégico y de control: determinar el programa general y la secuencia de estudio, evaluar el conocimiento, etc.
7. ¿Es posible cargar tu conciencia en una computadora, hacer un gemelo digital y vivir para siempre?
En el sentido en que se imagina sobre la base de la ciencia ficción, no. Solo puedes enseñarle al modelo a imitar tu estilo de comunicación, aprender tus chistes. Tal vez los modelos de nivel GPT-4 incluso puedan inventar otros nuevos enmarcados en su estilo y forma de presentación únicos, pero esto claramente no significa una transferencia completa de conciencia.
Nosotros, como humanidad, nuevamente, no sabemos qué es la conciencia, dónde se almacena, en qué se diferencia de los demás, qué me hace a mí, a mí y a ti, tú. Si de repente resulta que todo esto es solo un conjunto de recuerdos y experiencias, multiplicado por características individuales percepción, entonces, muy probablemente, será posible transferir conocimiento de alguna manera a las redes neuronales para que simulen la vida futura en su base
8. ¿Es peligroso subir tu voz, apariencia, tu estilo de texto de habla en una red neuronal? Parece que tal identidad digital puede ser robada.
Literalmente no puedes descargar nada en ellos. Puede entrenarlos (o volver a entrenarlos) de tal manera que los resultados se parezcan más a su apariencia, voz o texto. Y un modelo tan entrenado realmente puede ser robado, es decir, simplemente copie el script y un conjunto de parámetros para ejecutarlo en otra computadora.
Incluso puedes generar un video con una solicitud. transferir dinero a expensas de otra persona, en lo que su pariente creerá: los mejores algoritmos de deepfake y clonación de voz ya han alcanzado este nivel. Es cierto que se requieren miles de dólares y decenas de horas de grabación, pero no obstante.
En general, con el desarrollo de la tecnología, el tema de la identificación y confirmación de la identidad se vuelve más importante.
Y están tratando de resolverlo de una forma u otra. Por ejemplo, hay una startup WorldCoin (de hecho, hace una criptomoneda), en la que invirtió el jefe de OpenAI, Sam Altman. El significado de la puesta en marcha es que cada dato de una persona será firmado por su propia clave para su posterior identificación. Lo mismo se aplicará a los medios de comunicación masiva, con el fin de saber con certeza si esta noticia es verdadera o falsa.
Pero, por desgracia, mientras todo esto está en la etapa de prototipos. Y no considero que la introducción profunda de sistemas en todas las industrias se implemente en el horizonte de la próxima década, simplemente porque es demasiado complicado y a gran escala.
9. ¿Pueden las neuronas empezar a hacer daño y apoderarse del mundo?
El peligro no son los desarrollos actuales, sino lo que les seguirá con un mayor desarrollo. Actualmente, no se han inventado métodos para controlar el funcionamiento de las redes neuronales. Tomemos, por ejemplo, una tarea muy simple: asegurarse de que el modelo no diga palabrotas. Nunca jamás. No existe ningún método que le permita seguir tal regla. Hasta ahora, puede encontrar diferentes formas de cómo "criarlo" de todos modos.
Ahora imagine que estamos hablando condicionalmente de GPT-8, cuyas habilidades serán comparables a las habilidades de las personas más capaces e inteligentes. La red neuronal puede programar, usar Internet, sabe psicología y entiende cómo piensa la gente. Si le das rienda suelta y no estableces una tarea específica, ¿qué hará? ¿Y si descubre que no puede ser controlada?
La probabilidad de un mal giro de los acontecimientos no es tan grande, según las estimaciones. Por cierto, no existe una evaluación generalmente aceptada, aunque todos discuten sobre los detalles, sobre las consecuencias perjudiciales, etc. Ahora llaman cifras aproximadas del 0,01% al 10%.
En mi opinión, estos son riesgos enormes, suponiendo que el escenario más negativo sea la destrucción de la humanidad.
Curiosamente, ChatGPT y GPT-4 son productos creados por equipos que trabajan en los problemas de "alinear" las intenciones de las personas y las neuronas (los detalles se pueden encontrar aquí). Es por eso que los modelos escuchan tan bien las instrucciones, tratan de no ser groseros, hacen preguntas aclaratorias, pero esto todavía está muy lejos de ser ideal. El problema del control no está resuelto ni a medias. Y aunque no sabemos si se está resolviendo en absoluto, y si es así, por qué métodos. Este es el tema de investigación más candente de hoy.
10. ¿Puede una red neuronal enamorarse de una persona?
Con los enfoques y arquitecturas actuales de las neuronas, no. Solo generan texto que es más plausible como continuación del texto de entrada. Si lanzas el primer capítulo de una historia de amor, reescribiéndola bajo tu personalidad y le pides a la modelo que responda tu carta de amor, ella se las arreglará. Pero no porque me enamoré, sino porque encaja con mayor precisión en el contexto y la petición "¡escríbeme una carta!". Recuerde que los modelos aprenden a generar texto que sigue instrucciones.
Además, las redes neuronales en la versión básica no tienen memoria - entre dos lanzamientos diferentes, se olvidan de todo y vuelven a la "configuración de fábrica". La memoria se puede agregar artificialmente, como si fuera desde un lado, de modo que, digamos, 10 páginas de los "recuerdos" más relevantes se introducen en el modelo. Pero luego resulta que simplemente alimentamos un conjunto de eventos en el modelo original y decimos: "¿Cómo te comportarías en tales condiciones?" La modelo no tiene sentimientos.
Leer también🧐
- Dónde y cómo se usa la inteligencia artificial: 6 ejemplos de la vida
- 9 preguntas ingenuas sobre la inteligencia artificial
- 8 mitos sobre inteligencia artificial que incluso los programadores creen