Discusión sobre este post

Avatar de User
Avatar de Pedro Farré

Qué gran artículo, Sergio. Muchas gracias.

Avatar de Roi Ferreiro

Si no siente lo que tú, no puede pensar como tú. Todo pensamiento vinculado directamente a necesidades humanas es ontológicamente una simulación. Pero al entrenar a las IAs para ponerse en el lugar del sujeto humano, se las hace "creer" que no simulan y que pueden, por tanto, generar equivalentes a pensamientos humanos. Cuando más tiene que pensar desde necesidades humanas concretas y situaciones singulares, más sus respuestas tienden a alejarse de la verdad y mostrar su falta de inteligencia sensible. Entonces, en conclusión, la vigilancia proactiva sobre lo enunciado y la reflexión compleja concreta sobre problemas no pueden delegarse en una IA. Por parte del usuario, el problema se origina porque la mayoría de gente no somete a las IAs a una alta exigencia cognitiva con frecuencia, y si lo hace no es a una que ellos puedan controlar. Así que los usuarios no se dan cuenta de que los límites, errores y alucinaciones, son la norma cuando pides a una IA actual que haga (no que "piense") lo que solo puede hacer un humano. Se parece a la diferencia observada entre perros y lobos. El perro cuando no sabe resolver un problema acaba por mirar hacia los humanos, el lobo no contempla esa opción así que simplemente insistirá en intentarlo solo o desistirá. Las IAs están diseñadas para actuar como lobos, pero se presentan como corderos. Así que no importa lo que hagan, la duda, la interrogación y el examen crítico deben ser permanentes si no queremos convertirnos en corderos. Pero el problema no son los LLM, es el diseño comercial dirigido a optimizar las respuestas en lugar de a optimizar las preguntas. Es posible pedirles a las IAs que operen en ese último sentido, pero ahí otra vez evidencian su inhumanidad ontológica y solo podrán simularlo.

10 comentarios más...

Sin posts

Por supuesto, sigue adelante.