Le pedí a una Inteligencia Artificial que me explicara la relación entre la emisión monetaria y las Leliqs. ¿Saben qué me contestó? Que “la demanda de dinero es muy inestable en Argentina”.
Ajá. ¿Y con eso qué hago? Es como preguntarle al médico qué tenés y que te diga “algo en el cuerpo”. Técnicamente correcto, completamente inútil.
En ese momento entendí algo: nos vendieron el “cerebro positrónico”, el oráculo omnisciente, la solución mágica a todos nuestros problemas, pero a veces lo que tenemos es un político en plena campaña electoral: habla muchísimo, suena convincente, pero no siempre responde lo que le preguntaste.
Y lo más fascinante no es que se equivoque, sino la autoridad con la que lo hace.
Los técnicos usamos un término muy elegante para estos errores: “alucinación”. Suena misterioso, casi psicodélico. Pero seamos honestos: alucinación es ver barato el asado hoy en día. Lo que hace la IA cuando no sabe algo es mucho más terrenal: sarasea.
Para entender por qué pasa esto, hay que desmitificar a la bestia. La IA generativa no tiene moral, ni intención, ni picardía. No es Pinocho. Es, en esencia, una calculadora gigante jugando a la estadística. Es un casino de palabras. Un Scrabble que consume mucha energía eléctrica.
Cuando le hacemos una pregunta, el algoritmo no “piensa” la respuesta. Simplemente sacude los dados y calcula: “¿Qué palabra tiene más probabilidad matemática de venir después de la anterior?”.
Si yo escribo “La casa de…”, el algoritmo transpira. Busca en sus bases de datos “gobierno”, “Tucumán”, “papel” y ve que “Papel” tiene una probabilidad altísima por la serie de Netflix. Entonces completa: “Papel”. ¿Pero qué pasa si yo quería hablar de la casa de mi tía Eustaquia, que tiene humedad en los cimientos? A la IA no le importa mi tía. Para el modelo, mi tía es un error estadístico.
El riesgo real no es el error, sino la convicción. La IA se comporta como ese tío que en el asado opina de todo: geopolítica, fútbol, física cuántica. Toca de oído, pero te lo dice con una seguridad blindada.
Si le preguntamos mal, por ejemplo: “¿Quién cruzó los Andes?”, la IA es capaz de decirnos sin ponerse colorada que “en 1817, el General San Martín cruzó los Andes en una Ducati 500, con el Sargento Cabral en el sidecar”. Y te lo firma. No nos miente a propósito; simplemente juntó palabras que sonaban bien juntas.
La diferencia es que al tío le das un choripán y se calla. La máquina no. Sigue y sigue, incansable.
Ahora bien, no le echemos toda la culpa al algoritmo. Acá aplica la vieja regla de la informática: garbage in, garbage out; si entra basura, sale basura.
El problema, muchas veces, somos nosotros. Somos cómodos. Vamos a ChatGPT o a Gemini como quien se sube a un taxi, cierra la puerta y le dice al chofer: “Maestro, lléveme”.
—“¿A dónde?”, pregunta el conductor.
—“Y… a un lugar lindo. Sorpréndame”.
Y el taxista, que es de Boca, te lleva directo a la Bombonera. Para él es un templo. Para vos, si sos de River, es el infierno.
Si no le damos la dirección exacta, el contexto preciso y el tono adecuado, no podemos quejarnos si terminamos en cualquier lado. La IA funciona como un espejo: si nos paramos delante de ella despeinados, en pijama y con una instrucción vaga, no podemos pretender que nos devuelva una imagen de Brad Pitt.
La Inteligencia Artificial es una herramienta maravillosa, sin dudas. Pero no es mágica.
Adentro no hay un enanito sabio resolviendo enigmas. Hay probabilidad y estadística.
A veces, la estadística juega a nuestro favor y nos da una respuesta brillante que nos ahorra horas de trabajo. Y otras veces tira los dados y nos dice que “la demanda de dinero es muy inestable en Argentina” cuando le preguntamos algo específico.
La próxima vez que la IA te dé una respuesta rara, antes de maldecirla, revisá el prompt. Probablemente el problema esté de este lado del teclado.
¿Les pasó algo parecido? ¿Qué fue lo más bizarro que les contestó una IA?