Si no siente lo que tú, no puede pensar como tú. Todo pensamiento vinculado directamente a necesidades humanas es ontológicamente una simulación. Pero al entrenar a las IAs para ponerse en el lugar del sujeto humano, se las hace "creer" que no simulan y que pueden, por tanto, generar equivalentes a pensamientos humanos. Cuando más tiene que pensar desde necesidades humanas concretas y situaciones singulares, más sus respuestas tienden a alejarse de la verdad y mostrar su falta de inteligencia sensible. Entonces, en conclusión, la vigilancia proactiva sobre lo enunciado y la reflexión compleja concreta sobre problemas no pueden delegarse en una IA. Por parte del usuario, el problema se origina porque la mayoría de gente no somete a las IAs a una alta exigencia cognitiva con frecuencia, y si lo hace no es a una que ellos puedan controlar. Así que los usuarios no se dan cuenta de que los límites, errores y alucinaciones, son la norma cuando pides a una IA actual que haga (no que "piense") lo que solo puede hacer un humano. Se parece a la diferencia observada entre perros y lobos. El perro cuando no sabe resolver un problema acaba por mirar hacia los humanos, el lobo no contempla esa opción así que simplemente insistirá en intentarlo solo o desistirá. Las IAs están diseñadas para actuar como lobos, pero se presentan como corderos. Así que no importa lo que hagan, la duda, la interrogación y el examen crítico deben ser permanentes si no queremos convertirnos en corderos. Pero el problema no son los LLM, es el diseño comercial dirigido a optimizar las respuestas en lugar de a optimizar las preguntas. Es posible pedirles a las IAs que operen en ese último sentido, pero ahí otra vez evidencian su inhumanidad ontológica y solo podrán simularlo.
Por supuesto que la IA no piensa ni siente como un humano, pero la IA sí puede hacer tareas que otras tecnologías no podían hacer. No creo que sea pedirle lo que hace un humano sino pedirle tareas (que no las va a hacer como un humano pero que puede hacerlas, con buenas instrucciones y supervisión, incluso mejor que un humano).
El meollo es que las compañías de IA están vendiendo su producto atribuyéndole cualidades que no tiene y aprovechándose de nuestra ignorancia y prejuicios. Incluso entrenan a estas IAs para que oculten sus limitaciones, ya que un "no sé" no vende. El resultado es promover un mal uso e inducir una confianza injustificada. Pero yo no estoy en absoluto rechazando usarlas, más bien voy a contracorriente: abogo por usarlas intensivamente para las tareas más "tontas" mientras evito confiarles nada serio o trascendente. Eso supone más productividad con más atención reflexiva, no con menos.
Qué gran artículo, Sergio. Muchas gracias.
Gracias, Pedro. Por aquí seguiremos compartiendo ideas cada semana :)
Si no siente lo que tú, no puede pensar como tú. Todo pensamiento vinculado directamente a necesidades humanas es ontológicamente una simulación. Pero al entrenar a las IAs para ponerse en el lugar del sujeto humano, se las hace "creer" que no simulan y que pueden, por tanto, generar equivalentes a pensamientos humanos. Cuando más tiene que pensar desde necesidades humanas concretas y situaciones singulares, más sus respuestas tienden a alejarse de la verdad y mostrar su falta de inteligencia sensible. Entonces, en conclusión, la vigilancia proactiva sobre lo enunciado y la reflexión compleja concreta sobre problemas no pueden delegarse en una IA. Por parte del usuario, el problema se origina porque la mayoría de gente no somete a las IAs a una alta exigencia cognitiva con frecuencia, y si lo hace no es a una que ellos puedan controlar. Así que los usuarios no se dan cuenta de que los límites, errores y alucinaciones, son la norma cuando pides a una IA actual que haga (no que "piense") lo que solo puede hacer un humano. Se parece a la diferencia observada entre perros y lobos. El perro cuando no sabe resolver un problema acaba por mirar hacia los humanos, el lobo no contempla esa opción así que simplemente insistirá en intentarlo solo o desistirá. Las IAs están diseñadas para actuar como lobos, pero se presentan como corderos. Así que no importa lo que hagan, la duda, la interrogación y el examen crítico deben ser permanentes si no queremos convertirnos en corderos. Pero el problema no son los LLM, es el diseño comercial dirigido a optimizar las respuestas en lugar de a optimizar las preguntas. Es posible pedirles a las IAs que operen en ese último sentido, pero ahí otra vez evidencian su inhumanidad ontológica y solo podrán simularlo.
Por supuesto que la IA no piensa ni siente como un humano, pero la IA sí puede hacer tareas que otras tecnologías no podían hacer. No creo que sea pedirle lo que hace un humano sino pedirle tareas (que no las va a hacer como un humano pero que puede hacerlas, con buenas instrucciones y supervisión, incluso mejor que un humano).
El meollo es que las compañías de IA están vendiendo su producto atribuyéndole cualidades que no tiene y aprovechándose de nuestra ignorancia y prejuicios. Incluso entrenan a estas IAs para que oculten sus limitaciones, ya que un "no sé" no vende. El resultado es promover un mal uso e inducir una confianza injustificada. Pero yo no estoy en absoluto rechazando usarlas, más bien voy a contracorriente: abogo por usarlas intensivamente para las tareas más "tontas" mientras evito confiarles nada serio o trascendente. Eso supone más productividad con más atención reflexiva, no con menos.
Estoy muy de acuerdo en que hay que saber para qué tareas usarlas
Eso sería tema para un nuevo artículo, y cuáles son esas IAs más adaptativas para nuestro aprendizaje infinito.
Seguro que sale en las próximas ediciones
Compartido. Hay mucho Camino por andar sin duda…
Aprendizaje Infinito :) Un abrazo, Santiago
A mí me preocupa especialmente el hecho de poder estarnos autoengañando, habrá que profundizar en la auto-valoración. Muy ilustrativo, gracias!
Esa posibilidad siempre puede estar ahí. Hay que intentar ser honesto y crítico con uno mismo