Si te paras a pensarlo, creíamos que el futuro iba a ser a lo Blade Runner, pero no ha hecho falta. Tenemos las cabezas tan metidas en nuestros… teléfonos (pensabas que iba a decir culos, ¿eh?) que muchísima gente no distingue entre escribir a una IA o whatsappear a un colega.
Nos ahorramos el famoso test de Voight-Kampff, supongo.
Quizá esto que te cuento te sorprendería hace un par de años, pero hoy seguro que has visto a más de uno enviando una nota de voz tras otra al ChatGPT. Un algo que emula a una conversación, pero no sé bien qué es.
ChatGPT
Según The Guardian, ChatGPT se usaba hace un año para creatividades (27 %), contenido explícito o juegos de rol erótico (12 % de las peticiones, en serio), brainstormings, simplificar explicaciones, informarse sobre sucesos, redactar código… En fin, un buen popurrí. En su mayoría, 7 de cada 10 búsquedas no eran por trabajo, parece ser.
Sin embargo, mientras en OpenAI están maquinando (¿lo pillas?, aquí hago juegos de palabras de calidá) el próximo paso, ya he visto a varias personas que han empezado a hablarle al GPT como a un/a asistente. Sí, enredándose en largas conversaciones repletas de preguntas y respuestas con las que aclararse las ideas, hacerse mapas mentales e incluso tomar decisiones.
Sin ir más lejos, el sábado pasado uno de mis hermanos me recogió para ir a trabajar a Barcelona (tenía el coche averiado yo) y devolverme a mi casa. A última hora, estuve resolviendo algunas dudas a clientes sobre las clases mientras mi hermano me esperaba en el asiento de su Toyota No-sé-qué. Observé cómo enviaba notas de voz, me acerqué y le pedí unos minutos extra, intentando no interrumpir sus mensajes o la llamada en curso (no lo tenía muy claro).
Cuando acabé de trabajar, subí al coche y no tardé en darme cuenta de que no estaba al teléfono, sino «charlando» con ChatGPT sobre una decisión concreta. Y aquí no me malinterpretes, ¿okay? Hace un laaargo año que uso ChatGPT y otras IA en el trabajo: para automatizar la creación de algunas secciones de los informes, consultar fuentes de prensa, como asistente de redacción de contenidos concretos; también en mi vida personal: para estudiar psicología, analizar dinámicas conductuales, resolver dudas concretas y, como todo quisqui, hacerme un estúpido avatar al estilo Ghibli. (Lo siento, no volverá a pasar, como decía el rey emérito.)
C3PO
Al grano. ChatGPT no es C3PO. El androide de Star Wars tenía conciencia (o sea, una IA autoconsciente). Pese a sus colores dorados y metalizados, era algo similar a los replicantes: nos daba pena y generaba empatía porque había desarrolado agencia moral. Como el nene de la película de Spielberg, ya sabes.
En otras palabras, eran tan indistinguibles al ser humano que replanteaban la cuestión principal (¿qué es ser humano?). Como los cylons y los replicantes: como el androide medio, vamos. En cambio, aquí estamos más bien en una distopía estilo Black Mirror.
ChatGPT es una serie de respuestas probabilísticas que te ofrecen la solución más probable tras sucesiones de cálculos de resultados. No es persona ni agente moral; tampoco culpable de que haya gente suicidándose por un mal consejo, claro, o tomando decisiones pésimas por culpa de un mal prompt.
Inteligencia artificial
La cuestión aquí es que mi hermano fue conduciendo mientras enviaba audios*, con su atención en el aparatico, atento a la siguiente respuesta para relanzar una pregunta más, o confirmar la respuesta de esa supuesta interlocutora. La voz femenina de su GPT, con acento latino (diría que colombiano, pero quizá era argentino o ligeramente estándar) le respondía cortés y pacientemente.
En otro momento, quizá le hubiese dicho algo, pero estaba sorprendido por la dinámica de la situación. Yo, ahí, con uno de mis hermanos a los que suelo ver un rato cada cuatro, seis u ocho semanas (en su defensa, habíamos comido juntos); él preguntando cosas al smartphone; yo observando la escena.
No estaba teniendo una conversacion, pero tenía gran parte de su atención ahí: las contestaciones solo eran cálculos de probabilidades, pero podían haber pasado por una respuesta humana. Cuando acabó el toma y daca, me comentó sobre sus descubrimientos (que no eran suyos) y la toma de decisiones (que tampoco) y, luego, debimos cambiar de tema.
Más tarde, ya en casa, me estuve preguntando si eso va a ser la habitual: la normalización de relaciones inexistentes y la pérdida progresiva de otras que podrían ser. Estas últimas, no obstante, no siempre tienen la respuesta que buscas, ni cosas interesantes por decir. Me mosquea también lo rápido que hemos empezado a creer a un aparatejo porque parece que siempre tiene una solución(que sabemos que, a menudo, no lo es: incluso que alucina); lo difícil que se va a poner diferenciar entre lo real y lo digital, y la dependencia cada vez mayor de la mierda del iPhone (o Android, da igual) que todos estamos condenados a llevar en el bolsillo ya.
¿Sabes que hay quien se ha pasado a móviles vintage para reducir el impacto de lo digital?, pero siguen cogido por los jíbiris en el trabajo. El capitalismo, una vez más.
–
* Si eres policía y estás leyendo esto, se trata de una licencia poética y nunca pasó, no hay razón para denunciar a mi hermano. Ah, y 1213 fue un gran año.














