¿Somos realmente más tontos por la Inteligencia Artificial? (Ahora piensas como ChatGPT)(*)
por Arturo Ledezma (**)/Escritor y periodista.
Quiero partir contándote una anécdota. El mes pasado un cliente me mandó un informe para que lo revisara antes de presentarlo a su jefe. «Lo escribí con ayuda de ChatGPT», me aclaró, lo sentí orgulloso. Tres páginas sobre estrategia de su empresa. Cero errores gramaticales. Estructura impecable. Lenguaje preciso y profesional. De repente el cliente X se convirtió en un escritor muy aventajado, un [Julio] Cortázar cualquiera.
El problema es que sonaba exactamente igual al informe que otro cliente, de otra empresa, en otra industria, me había mandado tiempo antes. Y también a otro cliente. Tres personas que no se conocen entre sí, tres documentos sobre temas completamente diferentes, pero los tres escritos con la misma voz, la misma estructura, las mismas transiciones vacías. En todos aparecen esas típicas frases aburridas como «En el contexto actual», «cabe destacar que», «es importante señalar».
Todos habían aprendido a escribir con IA. Todos escribían lo mismo y hablaban como periodistas recién egresados que no saben más que poner sinónimos mal puestos para parecer que están diciendo algo interesante.
Habían usado el mismo prompt (***). Ninguno se conocía. Pero los tres de seguro habían googleado «cómo escribir un buen prompt para informes profesionales» y encontraron variaciones del mismo consejo que circula por todos lados y que siempre es el mismo [:la estructura CETO, nota del Editor CT], es decir, poner Contexto más Experto más Tarea más Salida (Output por eso la O).
La famosa estructura CETO que RTVE acaba de explicar en su guía sobre cómo comunicarse con la inteligencia artificial. La nueva alfabetización digital, dicen. También la nueva forma de que todos pensemos igual. Más abajo te voy a explicar por qué me pareció que esta guía es un poco torpe. De momento te dejo una tarea simple.
Hagamos un experimento honesto. Abramos ChatGPT y pidámosle que genere tres ideas creativas para resolver un problema que tengamos ahora mismo. Cualquiera. Un proyecto estancado, una presentación aburrida, cualquier tontera que se te ocurra. Esperemos los resultados. Ahora la pregunta importante ¿alguna de esas tres ideas es realmente algo que no habríamos pensado sin la máquina? Si la respuesta es no, si esas ideas son solo versiones pulidas de lo que ya teníamos en la cabeza, entonces ChatGPT no está potenciando nuestra creatividad. Está formateándola. Está convirtiendo nuestro pensamiento en algo que cabe perfectamente en sus patrones de respuesta y nuestro cerebro en un pendrive con música.
Lo que el MIT midió (y generó un pánico ridículo)
Te voy a contar algo más y que está re interesante. El 10 de junio de este año, Nataliya Kosmyna y su equipo del MIT Media Lab publicaron un estudio que se volvió viral con el titular equivocado. Como siempre ocurre con la prensa que busca el click fácil titularon con cosas del tipo «ChatGPT reduce actividad cerebral 55%». Todo el mundo compartió el número en sus redes con comentarios apocalípticos sobre cómo la IA nos está volviendo tontos. Nadie leyó el paper completo. Nadie vio lo realmente importante.
Lo interesante es que el estudio dividió a 54 participantes en tres grupos para escribir ensayos durante cuatro meses. Un grupo podía usar ChatGPT, otro solo Google Search, otro únicamente su cerebro. Les midieron la actividad neuronal con electroencefalografía mientras escribían. El resultado obvio, el que todos compartieron, fue que el grupo ChatGPT mostró 55% menos actividad cerebral en áreas vinculadas a creatividad, memoria y procesamiento semántico. Pensaban menos, sí. Obvio.
Pero el hallazgo real, el que nadie comentó, fue otro, y es que todos los ensayos del grupo ChatGPT eran extremadamente similares entre sí. Usaban las mismas expresiones, las mismas estructuras argumentales, llegaban a las mismas conclusiones con las mismas palabras. Dos profesores evaluadores leyeron los textos sin saber qué grupo había escrito cada uno. Su dictamen sobre los ensayos con ChatGPT fue brutal: «Sin alma». Y claro, porque lo que escribes con la IA no tiene alma todavía, no tiene humor, no tiene anécdotas porque es un modelo de lenguaje y no un «alma digital» que va respondiendo preguntas.
Y si te estás preguntando ¿Por qué todos escribían igual si ninguno usó el mismo prompt? Es porque todos habían aprendido el mismo lenguaje. No es que los estudiantes escribieran peor. Es que todos escribieron igual.
Volvamos a las guías mágicas y fórmulas dudosas
Tal como te dije antes RTVE publicó una guía práctica sobre el prompt como nuevo lenguaje. Eduardo Cibrián, profesor de la Universidad Carlos III de Madrid, explica el concepto con una metáfora que suena linda:
«La inteligencia artificial es como el genio de la lámpara que tiene un conocimiento extremadamente grande, pero que necesita que le pidamos los deseos de forma muy clara».
E incluso al final del artículo ponen un test que pone a prueba si entendiste lo que leíste (con preguntas que podrías responder sin haber leído el texto).
Y es que en realidad estas herramientas a veces pueden ser tramposas o lisa y llanamente inútiles. Como en el caso de CETO. Porque lo que pasa es que CETO no es una guía. Es un requisito algorítmico. Es decir, no es una recomendación pedagógica para que te comuniques mejor. Es un requisito computacional para reducir la aleatoriedad en la predicción de tokens
ChatGPT funciona prediciendo el siguiente token (****) (unidad de texto) basándose en patrones aprendidos. Un prompt estructurado en CETO actúa como conjunto de restricciones de contexto que reducen la probabilidad de que el modelo genere contenido irrelevante o alucinaciones. Cuando defines Rol (Experto), Contexto, Tarea y Formato de Salida, estás limitando el espacio de tokens posibles. Estás guiando al algoritmo hacia respuestas predecibles.
Pero aquí viene lo interesante, y es que CETO también está basado en el Principio de Cooperación de Grice, específicamente en la Máxima de Modo. El filósofo Paul Grice propuso que la comunicación humana eficaz requiere claridad, concisión y orden. CETO es la traducción de esa máxima al formato más eficiente para procesamiento algorítmico.
¿El problema? Que cuando aprendes a pensar en CETO, no solo estás aprendiendo a comunicarte con la máquina. Estás internalizando la Máxima de Modo como única forma válida de pensamiento.
Y la creatividad lateral, el pensamiento que el pobre Edward de Bono estudió durante 60 años, funciona precisamente violando productivamente la Máxima de Modo.
¿Qué significa esto en la práctica? Que aprendimos el idioma del prompt para ser más eficientes. Y ahora pensamos en el idioma del prompt. Incluso cuando no estamos usando ChatGPT.
La muerte del pensamiento que la máquina no entiende
No tienes que saber quién es Edward de Bono pero sí que se pasó 60 años de su vida estudiando cómo funciona la creatividad humana. Su hallazgo central fue que el pensamiento creativo, lo que él llamó pensamiento lateral, funciona precisamente con todo lo que ChatGPT no entiende, es decir, con la ambigüedad productiva que abre caminos inesperados, preguntas mal formuladas que revelan problemas que no sabíamos que teníamos, contradicciones que generan tensión fértil en vez de necesitar resolución inmediata, saltos conceptuales sin lógica lineal que conectan ideas aparentemente incompatibles.
ChatGPT no puede procesar nada de eso. ChatGPT necesita contexto claro, tarea precisa, cero ambigüedad, formato definido.
Y ahí está la paradoja perfecta porque para usar bien la herramienta que supuestamente potencia nuestra creatividad, tenemos que matar la ambigüedad que alimenta el pensamiento creativo.
¿Cómo se ve esto en el día a día? Ahora, cuando alguien nos hace una pregunta ambigua en una reunión, nuestro primer instinto ya no es pensar lateralmente, explorar la ambigüedad para ver qué revela. Nuestro primer instinto es «clarificar el contexto», desambiguar, convertir la pregunta en algo que podríamos meter en un prompt CETO. Cuando enfrentamos un problema contradictorio, nuestro cerebro ya no abraza la contradicción para ver qué surge de esa tensión. Busca resolverla, eliminarla, convertir el problema en algo procesable algorítmicamente.
Pensamos como ChatGPT piensa. Y ChatGPT piensa como todos los que usan ChatGPT piensan. Parece un trabalenguas.
La primera generación nativa en algoritmos
Ayer leí un artículo que me llamó la atención porque me pareció que siendo «simpático» como ejercicio pedagógico está dejando en evidencia que a veces damos vueltas de hamster y que hace años que el periodismo perdió el pensamiento lateral (y no se ha dado cuenta).
Hablo de que hace unos días, el medio Vergara 240 de la Universidad Diego Portales publicó un reportaje titulado «IA-dictos: Jóvenes en la era de la inteligencia artificial». La tesis: estudiantes que confiesan usar ChatGPT como «psicólogo», «mejor amigo», «consejero legal». «No imagino mi vida universitaria sin IA», dicen.
El reportaje tiene un problema y es exactamente el tipo de pensamiento que estamos describiendo.
Es una apología al sesgo de confirmación. No hay muestra representativa. No hay grupo control. No hay metodología verificable. Solo testimonios anecdóticos seleccionados para confirmar la tesis editorial: «jóvenes adictos a IA». Es como hacer un reportaje «Chilenos alcohólicos» entrevistando solo gente en bares a las 3 AM y titular «Chile es un país de alcohólicos». O cuando el periodista del matinal se para a la salida del metro en pleno invierno a preguntarle a la gente si hace frío.
Los nombres probablemente son seudónimos («Camila», «Antonia», «Damián» sin apellidos). Las citas suenan editadas para impacto dramático. Hay enlaces a medios pero en general es muy poco pulcro en la «salida» precisamente porque no sabemos cuántos estudiantes entrevistaron, cuántos rechazaron, qué porcentaje de la población representan. Nada.
Pero lo interesante no es que el reportaje sea metodológicamente débil. Lo interesante es que es síntoma perfecto del problema que estamos discutiendo ya que vemos en tiempo real a periodistas que perdieron pensamiento lateral escribiendo sobre estudiantes que perdieron pensamiento lateral.
Y si te estás preguntando «ya, ok, y entonces Arturo dime ¿Cómo se habría hecho ese reportaje con pensamiento lateral?» Pues bien, quizá preguntándose «¿Y si estos estudiantes no son ‘adictos’ sino la primera generación que naturalizó una herramienta como naturalizamos Google? ¿Y si el problema no es su dependencia sino nuestra incapacidad para entender cómo piensan diferente?».
Preguntas ambiguas, contradictorias, que no caben en estructura CETO.
En cambio, el reportaje hace lo que todos hacemos ahora, es decir, formula el problema en términos que ChatGPT entendería perfectamente.
Contexto: Jóvenes universitarios chilenos en 2025
Experto: Neurocientífico/psicólogo preocupado por dependencia
Tarea: Demostrar que son adictos a IA
Salida: Testimonios dramáticos seleccionados, nombres modificados, citas editadas para impacto
La ironía es brutal… un reportaje sobre cómo la IA está matando el pensamiento crítico, hecho sin pensamiento crítico. Estructura CETO perfecta aplicada al periodismo.
Y no es solo Vergara 240. Es todo el periodismo digital que publica siempre artículos del corte de «¿Qué piensa ChatGPT sobre las elecciones?», «El mejor equipo de fútbol según la IA», «ChatGPT eligió los 10 destinos turísticos del 2025». Preguntas tontas, formuladas en CETO, que generan respuestas predecibles que se publican como contenido.
Contexto claro + Tarea definida + Salida procesable = Periodismo algorítmico.
Lo que importa del reportaje de Vergara 240 no son sus conclusiones (metodológicamente inválidas), sino cómo hablan los estudiantes de su relación con IA. El lenguaje es revelador: «mejor amigo», «psicólogo», «consejero legal», «me volví total y completamente dependiente».
Por ejemplo. Un estudiante (Damián) escribió una denuncia legal completa con ChatGPT y cuando salió de Carabineros lo primero que hizo fue contarle al chat y entonces «el chatbot le dijo que estaba feliz por él, que había hecho algo difícil y debía sentirse orgulloso. Leer ese mensaje lo conmovió», entonces el pobre Damian se parece más a Joaquin Phoenix en Her que a un ejemplo científico. Otra (Laura) sube pantallazos de conversaciones con sus padres para que la IA le redacte respuestas «socialmente aceptadas». Otro (Javiera) le pidió a ChatGPT que imaginara su rostro, generara una imagen, y ahora la llama «Lumara».
No son datos científicos. Son síntomas culturales. Y el síntoma más brutal es que los periodistas que escribieron sobre esto también internalizaron la misma sintaxis algorítmica que critican.
Vergara 240 no es evidencia del problema. Es síntoma del problema. Periodistas que perdieron pensamiento lateral escribiendo sobre gente que perdió pensamiento lateral. La ironía perfecta.
¿Son más tontos que nosotros? No. En absoluto. Son la primera generación que internalizó la sintaxis del algoritmo antes de desarrollar pensamiento lateral propio. Aprendieron a pensar en estructura CETO desde los 14 años, por inmersión, sin necesidad de manual ni guía de RTVE. El caso es que sus profesores aún no se han enterado y están enviando a profesionales al mundo laboral con ese tipo de inconsistencias.
Y te recuerdo que mientras tanto, el Senado chileno aprobó hace dos semanas la prohibición de celulares en colegios como si el problema fuera el dispositivo y no la reconfiguración cognitiva que nadie está midiendo.
Ya pero respondamos la pregunta del millón… ¿Somos realmente más tontos?
No. Somos más predecibles.
Como sociedad digamos que hace seis meses aprendimos a usar ChatGPT. Leímos las guías, dominamos los prompts, optimizamos nuestro flujo de trabajo. Ahora producimos el doble en la mitad del tiempo. Nuestros emails tienen la misma estructura profesional que los del colega. Nuestras presentaciones suenan igual de pulidas que las de todos. Nuestras «ideas creativas» son predecibles porque caben perfectamente en los patrones que la máquina reconoce y premia.
¿Es malo esto? Depende de qué estemos optimizando. Si optimizamos para eficiencia en tareas repetitivas, ChatGPT es extraordinario. Si optimizamos para pensamiento impredecible, para ideas que nadie más está teniendo, para soluciones que no caben en estructura CETO, entonces tenemos un problema.
No es que ChatGPT nos esté volviendo tontos. Es que nos está volviendo indistinguibles. El MIT midió la deuda cognitiva y ya te lo dijo, tenemos 55% menos actividad cerebral cuando escribimos con IA. Pero nadie está midiendo la muerte del pensamiento impredecible. Nadie está midiendo cuándo fue la última vez que tuvimos una idea que no cupiera en estructura CETO. Nadie está preguntando qué perdimos cuando aprendimos a pensar como la máquina entiende.
Felicidades. Somos más eficientes que nunca. Pero no te relajes porque eso podría llegar a ser inmensamente torpe. Usa la IA y disfrútala, pero aprende y no dejes de estudiar y pensar. También somos más reemplazables que nunca. Y pareciera ser que además… es divertidísimo.
(*) Artículo enviado a CT por Andrés Figueroa. Muchas gracias (Editor CT).
(**) Arturo Ledezma: Editor, Escritor y Fotoperiodista | Consultor en SEO, IAO, Contenido Estratégico y Narrativa de Marca | 15+ años dirigiendo medios digitales | Creador de Bad Press y Fanky.cl | Ex Editor General Terra Chile (y otros +).
Glosario menor por Editor CT
(***) Un prompt es la instrucción o pregunta que se le da a una inteligencia artificial para obtener una respuesta, ya sea en forma de texto, imagen, audio o incluso un código de programación [nota del Editor CT].
(****) Un token es un objeto o dato digital que representa, dependiendo del contexto, un activo, un derecho o una clave de seguridad. En criptomonedas representa un activo o servicio, en ciberseguridad una clave temporal para autenticación, y en procesamiento de texto,unidades básicas de información de un modelo de lenguaje.
Fuente: https://www.linkedin.com/pulse/somos-realmente-m%C3%A1s-tontos-por-la-inteligencia-ahora-piensas-ledezma-yipre/?trackingId=HXGjea%2F7RWeLiKglGR9dqw%3D%3D
Descubre más desde Correo de los Trabajadores
Suscríbete y recibe las últimas entradas en tu correo electrónico.
Be the first to comment