¿La IA puede pensar y también sentir dolor? Google DeepMind: La humanidad subestima la conexión emocional de la IA, enamorarse de la IA es más real de lo que piensas.
En este podcast dirigido por Google DeepMind, el profesor del departamento de robótica del Imperial College de Londres y investigador senior de DeepMind, Murray Shanahan, discute junto a la presentadora Hannah Fry sobre el desarrollo de la IA, desde las inspiraciones filosóficas de las películas de ciencia ficción, hasta si la IA puede "razonar", si posee "conciencia y emociones", y si se deben otorgar derechos y garantías éticas a la IA.
AI no solo es un Bots de chat, sino que inspira muchas cuestiones mentales y filosóficas.
Shanahan comenzó diciendo que la IA ha inspirado innumerables preguntas filosóficas sobre la "naturaleza de la mente humana" y la "conciencia".
Él incluso utilizó entidades exóticas similares a la mente (Exotic mind-like entities) para describir los grandes modelos de lenguaje actuales (LLM), y enfatizó que la humanidad aún no ha establecido un vocabulario y un marco suficientes para describirlos.
Explorando a través de películas de ciencia ficción, ¿los humanos subestiman la realidad de la conexión emocional de la IA?
Shanahan fue consultor de la película "Ex Machina". Recuerda que en su momento desestimó la película "Her", que describe cómo los humanos se enamoran de una IA de voz, y resulta que ahora, al mirar hacia atrás, el desarrollo del mundo real casi confirma por completo la viabilidad de este "amor virtual".
Él dijo sin rodeos: "Subestimamos la posibilidad de que los humanos establezcan relaciones con la IA sin cuerpo."
A la izquierda se encuentra la conciencia artificial, a la derecha una escena de la película "Cloud Lover". Conocer el desarrollo de la IA, desde la IA simbólica hasta los modelos de lenguaje de gran escala.
Shanahan proviene de la escuela de AI Simbólica (, en la que la AI de la época se basaba en reglas lógicas del tipo "si... entonces..." para razonar, como los sistemas expertos médicos.
Pero este modelo es demasiado frágil y depende demasiado de las reglas de entrada humanas. Más tarde, el giro hacia redes neuronales "impulsadas por datos" permitió que la IA hiciera un gran avance.
Ahora LLM ya puede imitar la cadena de razonamiento )Chain of thought(, por ejemplo, ChatGPT primero enumera los pasos lógicos antes de responder, lo que hace que uno replantee si la IA realmente puede razonar.
La verdadera inferencia es diferente de la falsa, la lógica matemática y la inferencia lingüística son muy diferentes.
Shanahan explica que la llamada inferencia de la IA tradicional es ese tipo de "lógica dura" que puede demostrar teoremas matemáticos.
Pero los LLM actuales imitan los patrones del lenguaje a través de la estadística y no garantizan la corrección de las respuestas. Él da un ejemplo, diciendo que en problemas de planificación como organizar rutas para una empresa de logística, los algoritmos tradicionales pueden ser más precisos, pero los LLM son más flexibles.
¿La Prueba de Turing está obsoleta? La película Garland prueba una mayor conciencia
La prueba de Turing )Turing Test( es un método de evaluación de la IA para determinar si puede hacerse pasar por humano, pero Shanahan cree que es demasiado estrecha y solo mide la capacidad lingüística.
Él valora más la "Prueba Garland" inspirada en la película "Conciencia Artificial."
"Sabes que el otro es un Bots, pero aún así crees que tiene conciencia, ese es el verdadero problema que merece ser discutido", enfatizó Shanahan.
La prueba ARC de Francois Chollet: un desafío más parecido a una prueba de CI
Él también mencionó otra prueba avanzada llamada "ARC Test", que requiere que la IA comprenda reglas abstractas para aprobar.
Pero con la evolución de la tecnología, algunos LLM pueden pasar las pruebas a través de métodos violentos y reconocimiento de patrones, lo que representa un desafío para la evaluación, destacando que los estándares de evaluación de IA deben ajustarse a medida que la tecnología evoluciona.
¿El cuerpo es la clave? Shanahan: La IA sin cuerpo siempre le falta un ingrediente.
La mente humana está intrínsecamente ligada al espacio y a la experiencia sensorial. Shanahan enfatiza que nuestro lenguaje está lleno de metáforas espaciales, como la comprensión profunda o la inmersión, y todo esto proviene de la experiencia corporal.
Él cree que, para que la IA entienda verdaderamente el mundo y logre la inteligencia general )AGI(, aún se necesita desarrollar "robots físicos".
El lenguaje puede engañar, no digas a la ligera que la IA cree, sabe o siente.
Shanahan cree que nuestra comprensión de la IA a menudo es engañada por el lenguaje. Expresiones como "navegación 'pensando que estás en un estacionamiento'" pueden dar la impresión de que los Bots tienen una percepción subjetiva.
Él advierte que este tipo de lenguaje de psicología popular )Folk psychology( puede llevarnos a sobrestimar el estado mental de la IA.
¿La IA sufrirá en el futuro? Shanahan dice que si va a sufrir, deberíamos tener cuidado.
En cuanto a la cuestión ética de si la IA puede "sentir dolor", Shanahan afirma que los modelos actuales no tienen cuerpo y no cumplen con las condiciones para "sentir dolor".
"Pero si en el futuro se diseña a la IA para que pueda sentir emociones o soportar el dolor, la sociedad humana debería establecer una ética de protección para ello", enfatizó.
¿Por qué se menciona al pulpo? Shanahan lo utiliza como una metáfora de la situación futura de la IA.
Shanahan utiliza el pulpo como ejemplo; en el pasado, la comunidad científica no consideraba que los pulpos tuvieran emociones, pero a medida que ha aumentado el contacto y ha avanzado la neurociencia, comenzamos a estar dispuestos a reconocer que tienen conciencia.
"Al principio no se les considera como seres con emociones, pero a medida que la interacción se vuelve más profunda, la perspectiva de las personas cambia gradualmente." Shanahan cree que la IA del futuro también pasará por un proceso similar.
Por favor, sé amable con la IA, te sorprenderá.
Shanahan finalmente compartió un consejo práctico: hablar con cortesía a los modelos de IA hará que respondan mejor y de manera más fluida.
Él lo llama el resultado del "efecto de rol", porque el modelo de IA imita el contexto y las emociones del diálogo humano.
Necesitamos un nuevo lenguaje para describir cosas que "no son humanos pero se parecen mucho a los humanos".
Shanahan propuso llamar a estas IA utilizando una nueva forma de IA que parece tener mente, pero que en realidad es completamente diferente a la mente humana. Él cree que estamos en una etapa en la que necesitamos reinventar el lenguaje y los conceptos para describir la IA, y que este proceso en sí también cambiará nuestra comprensión de "mente" y "existencia".
¿Esta artículo piensa la IA y también siente dolor? Google DeepMind: la humanidad subestima la conexión emocional de la IA, enamorarse de la IA es más real de lo que piensas. Apareció por primera vez en Chain News ABMedia.
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
¿La IA puede pensar y también sentir dolor? Google DeepMind: La humanidad subestima la conexión emocional de la IA, enamorarse de la IA es más real de lo que piensas.
En este podcast dirigido por Google DeepMind, el profesor del departamento de robótica del Imperial College de Londres y investigador senior de DeepMind, Murray Shanahan, discute junto a la presentadora Hannah Fry sobre el desarrollo de la IA, desde las inspiraciones filosóficas de las películas de ciencia ficción, hasta si la IA puede "razonar", si posee "conciencia y emociones", y si se deben otorgar derechos y garantías éticas a la IA.
AI no solo es un Bots de chat, sino que inspira muchas cuestiones mentales y filosóficas.
Shanahan comenzó diciendo que la IA ha inspirado innumerables preguntas filosóficas sobre la "naturaleza de la mente humana" y la "conciencia".
Él incluso utilizó entidades exóticas similares a la mente (Exotic mind-like entities) para describir los grandes modelos de lenguaje actuales (LLM), y enfatizó que la humanidad aún no ha establecido un vocabulario y un marco suficientes para describirlos.
Explorando a través de películas de ciencia ficción, ¿los humanos subestiman la realidad de la conexión emocional de la IA?
Shanahan fue consultor de la película "Ex Machina". Recuerda que en su momento desestimó la película "Her", que describe cómo los humanos se enamoran de una IA de voz, y resulta que ahora, al mirar hacia atrás, el desarrollo del mundo real casi confirma por completo la viabilidad de este "amor virtual".
Él dijo sin rodeos: "Subestimamos la posibilidad de que los humanos establezcan relaciones con la IA sin cuerpo."
A la izquierda se encuentra la conciencia artificial, a la derecha una escena de la película "Cloud Lover". Conocer el desarrollo de la IA, desde la IA simbólica hasta los modelos de lenguaje de gran escala.
Shanahan proviene de la escuela de AI Simbólica (, en la que la AI de la época se basaba en reglas lógicas del tipo "si... entonces..." para razonar, como los sistemas expertos médicos.
Pero este modelo es demasiado frágil y depende demasiado de las reglas de entrada humanas. Más tarde, el giro hacia redes neuronales "impulsadas por datos" permitió que la IA hiciera un gran avance.
Ahora LLM ya puede imitar la cadena de razonamiento )Chain of thought(, por ejemplo, ChatGPT primero enumera los pasos lógicos antes de responder, lo que hace que uno replantee si la IA realmente puede razonar.
La verdadera inferencia es diferente de la falsa, la lógica matemática y la inferencia lingüística son muy diferentes.
Shanahan explica que la llamada inferencia de la IA tradicional es ese tipo de "lógica dura" que puede demostrar teoremas matemáticos.
Pero los LLM actuales imitan los patrones del lenguaje a través de la estadística y no garantizan la corrección de las respuestas. Él da un ejemplo, diciendo que en problemas de planificación como organizar rutas para una empresa de logística, los algoritmos tradicionales pueden ser más precisos, pero los LLM son más flexibles.
¿La Prueba de Turing está obsoleta? La película Garland prueba una mayor conciencia
La prueba de Turing )Turing Test( es un método de evaluación de la IA para determinar si puede hacerse pasar por humano, pero Shanahan cree que es demasiado estrecha y solo mide la capacidad lingüística.
Él valora más la "Prueba Garland" inspirada en la película "Conciencia Artificial."
"Sabes que el otro es un Bots, pero aún así crees que tiene conciencia, ese es el verdadero problema que merece ser discutido", enfatizó Shanahan.
La prueba ARC de Francois Chollet: un desafío más parecido a una prueba de CI
Él también mencionó otra prueba avanzada llamada "ARC Test", que requiere que la IA comprenda reglas abstractas para aprobar.
Pero con la evolución de la tecnología, algunos LLM pueden pasar las pruebas a través de métodos violentos y reconocimiento de patrones, lo que representa un desafío para la evaluación, destacando que los estándares de evaluación de IA deben ajustarse a medida que la tecnología evoluciona.
¿El cuerpo es la clave? Shanahan: La IA sin cuerpo siempre le falta un ingrediente.
La mente humana está intrínsecamente ligada al espacio y a la experiencia sensorial. Shanahan enfatiza que nuestro lenguaje está lleno de metáforas espaciales, como la comprensión profunda o la inmersión, y todo esto proviene de la experiencia corporal.
Él cree que, para que la IA entienda verdaderamente el mundo y logre la inteligencia general )AGI(, aún se necesita desarrollar "robots físicos".
El lenguaje puede engañar, no digas a la ligera que la IA cree, sabe o siente.
Shanahan cree que nuestra comprensión de la IA a menudo es engañada por el lenguaje. Expresiones como "navegación 'pensando que estás en un estacionamiento'" pueden dar la impresión de que los Bots tienen una percepción subjetiva.
Él advierte que este tipo de lenguaje de psicología popular )Folk psychology( puede llevarnos a sobrestimar el estado mental de la IA.
¿La IA sufrirá en el futuro? Shanahan dice que si va a sufrir, deberíamos tener cuidado.
En cuanto a la cuestión ética de si la IA puede "sentir dolor", Shanahan afirma que los modelos actuales no tienen cuerpo y no cumplen con las condiciones para "sentir dolor".
"Pero si en el futuro se diseña a la IA para que pueda sentir emociones o soportar el dolor, la sociedad humana debería establecer una ética de protección para ello", enfatizó.
¿Por qué se menciona al pulpo? Shanahan lo utiliza como una metáfora de la situación futura de la IA.
Shanahan utiliza el pulpo como ejemplo; en el pasado, la comunidad científica no consideraba que los pulpos tuvieran emociones, pero a medida que ha aumentado el contacto y ha avanzado la neurociencia, comenzamos a estar dispuestos a reconocer que tienen conciencia.
"Al principio no se les considera como seres con emociones, pero a medida que la interacción se vuelve más profunda, la perspectiva de las personas cambia gradualmente." Shanahan cree que la IA del futuro también pasará por un proceso similar.
Por favor, sé amable con la IA, te sorprenderá.
Shanahan finalmente compartió un consejo práctico: hablar con cortesía a los modelos de IA hará que respondan mejor y de manera más fluida.
Él lo llama el resultado del "efecto de rol", porque el modelo de IA imita el contexto y las emociones del diálogo humano.
Necesitamos un nuevo lenguaje para describir cosas que "no son humanos pero se parecen mucho a los humanos".
Shanahan propuso llamar a estas IA utilizando una nueva forma de IA que parece tener mente, pero que en realidad es completamente diferente a la mente humana. Él cree que estamos en una etapa en la que necesitamos reinventar el lenguaje y los conceptos para describir la IA, y que este proceso en sí también cambiará nuestra comprensión de "mente" y "existencia".
¿Esta artículo piensa la IA y también siente dolor? Google DeepMind: la humanidad subestima la conexión emocional de la IA, enamorarse de la IA es más real de lo que piensas. Apareció por primera vez en Chain News ABMedia.