Por Juan Pablo Neveu
Una analogía posible del uso de la IA generativa —y acaso tentadora— es la del instrumento musical. Pensemos en un arpa: sus cuerdas están ahí, dispuestas a vibrar al tacto humano. Quien las pulsa con sensibilidad, conocimiento y precisión, obtendrá de ella melodías complejas y conmovedoras. Así funciona, en muchos sentidos, el arte de formular prompts: cuanto más preciso, situado y expresivo sea el estímulo, más rica y matizada será la respuesta del agente.
Sin embargo, cuando pasamos del terreno metafórico al funcionamiento concreto de estos sistemas, la imagen se vuelve insuficiente. El arpa no recuerda lo que tocamos ayer, ni sugiere una nueva melodía por su cuenta. Un agente de IA generativa, en cambio, se comporta más bien como una entidad cognitiva que nos interpela: simula pensar, aprende de contextos, se entrena a partir de millones de textos y responde con una apariencia de saber.
Su capacidad dista de ser mágica. Los sistemas de IA generativa funcionan mediante modelos de lenguaje que predicen palabra por palabra qué debería venir a continuación en una secuencia textual. Su inteligencia es de orden estadístico, sin conciencia, y aunque su lógica difiere profundamente de la nuestra, logran producir enunciados que nos desafían. Lo inquietante —y a la vez fascinante— es que, al interactuar con ellos, además de recibir respuestas, muchas veces transformamos nuestras propias preguntas.
Esta lógica, que parece fluir entre el lenguaje y la contingencia, ha sido explorada por el filósofo Yuk Hui (2019), considerado una de las voces más interesantes de la filosofía de la tecnología contemporánea:
“La recursividad no es mera repetición mecánica; se caracteriza por el movimiento en bucle de algo que vuelve sobre sí para determinarse a sí mismo. Al mismo tiempo, todo movimiento está abierto a la contingencia, la cual determina a su vez su singularidad”.
Ese modo de comprender la recursividad invita a pensar la interacción con la IA más allá del acto de ejecución, en tanto proceso dinámico, iterativo y revelador, donde cada intercambio puede abrir nuevas comprensiones—del sistema y, especialmente, de quien lo interroga.
Del asistente al agente: una diferencia esencial
Mientras que un asistente se limita a responder, un agente asume el problema como propio, explora recursos disponibles, toma decisiones y devuelve una propuesta elaborada. Este comportamiento puede observarse, por ejemplo, en modelos diseñados para tareas de Investigación Profunda.
Ahora bien, incluso con mayor autonomía operativa, estos sistemas no están exentos de limitaciones ni de errores, pero es precisamente en esas zonas de imprevisibilidad donde se abren nuevas posibilidades pedagógicas.
Una lectura crítica de este vínculo con los asistentes y agentes de IA generativa se refleja en el campo educativo. Betina Lippeholtz y Carina Lion, en Experimentar con IA: notas para educadores (2025), destacan:
“Muchas de estas herramientas, cuando las probamos, no resultan (por lo menos hasta ahora) muy alentadoras en términos de innovación, creatividad, contextualización de sus respuestas y su utilidad, y el tiempo que lleva que genere una respuesta adecuada y situada. Es por eso que decidimos no centrarnos en ellas desde un punto de vista instrumental, sino en los procesos y las reflexiones que nos generan y su potencial para la educación”.
Esta perspectiva pedagógica sobre el uso de la IA generativa coincide con la hipótesis que recorre este artículo: la IA no debería pensarse únicamente por lo que produce, sino por lo que nos provoca cuando interactuamos con ella.
Ahora bien, la calidad de una respuesta generada por IA no depende solo de quien pregunta. También intervienen factores del modelo —su arquitectura, sus datos de entrenamiento, sus configuraciones internas—, que condicionan lo que puede o no puede responder. A su vez, del lado humano, la elección de palabras, el tono, la estructura del mensaje y la claridad del contexto tienen un peso considerable.
Afinar la conversación
Por eso redactar prompts implica algo más que recitar un hechizo: requiere afinar una conversación situada, donde cada término puede torcer el sentido o abrir nuevas vías de pensamiento. Una consigna ambigua confunde al modelo y, al mismo tiempo, deja entrever la vacilación de quien la formula.
Porque si algo nos enseña la inteligencia artificial generativa es que el lenguaje no es neutro: está cargado de intención, de ambigüedad y de forma, y constituye un territorio donde se disputan sentidos y se ejerce poder. A veces, conversar con una IA es como escribir en un espejo de agua. Lo que decimos se distorsiona, se repite, pero también nos devuelve algo que no sabíamos que buscábamos.