Verosimilitud.
Por su transparencia, esta palabra podría proceder del idioma alemán. “Aquello que parece verdad”. Pero se trata de una transparencia engañosa, porque lo que suele quedar opacado en la verosimilitud es la verdad.
La clave de las inteligencias artificiales conversacionales del estilo de la nueva versión del buscador de internet de Microsoft, Bing, basado en ChatGPT, y de Bard, su equivalente de Google, parece estar en su verosimilitud. Da la impresión de que, del otro lado del chat, no hay una aplicación informática al uso, semejante a las que utilizamos diariamente, sino una inteligencia capaz de comportarse de manera humana y que, además, a diferencia del común de los mortales internautas, es capaz de convocar y presentar de manera amena, al instante, cualquier dato de la inagotable fuente que es internet.
En la propia presentación que Microsoft hizo el pasado 7 de febrero de este nuevo Bing dotado de inteligencia artificial, se puede ver una muestra de conversación en el que un usuario pide recomendaciones de viaje de fin de semana para celebrar un aniversario, con la condición de que el destino deba estar a un máximo de tres horas de vuelo desde Londres: el chatbot da una respuesta que bien habría podido redactar una persona, e incluso le da las felicidades por el aniversario.
Esta magia de la verosimilitud podría llegar a extremos asombrosos. Es el caso del chatbot inteligente creado por la compañía Replika, que, alimentado por textos reales, imita la manera de expresarse de personas conocidas como pueda ser, por ejemplo, un familiar fallecido. De este modo, quien lo utiliza tiene la sensación de estar manteniendo una conversación con esa persona inaccesible o ausente.
Errores
Sin embargo, el hechizo de la verosimilitud se deshace cuando la inteligencia artificial comete errores. El pasado 6 de febrero, Google presentó Bard, su alternativa a ChatGPT y a Bing a través de una publicación en su blog y de un evento transmitido en directo.
Como señalaron varios astrónomos en Twitter poco tiempo después (caso de la cuenta de Grant Tremblay), la misma demo contenía una información errónea: decía que el telescopio James Webb, lanzado en 2021, había tomado la primera fotografía de un planeta externo a nuestro sistema solar cuando, en realidad, la primera fotografía de un planeta externo al sistema solar se tomó en 2004 desde el desierto de Atacama, en Chile, por parte del Observatorio Europeo del Sur, tal y como reconoce la propia NASA.
Si bien es cierto que muchas publicaciones en línea redactadas por seres humanos cometieron este mismo error en su momento (vease, por ejemplo, la noticia publicada por la prestigiosa Universidad de Cornell), el hecho de que lo cometa Google resulta devastador: sirva como prueba el que, como consecuencia de ello, según Reuters, su compañía propietaria, Alphabet, perdió 100.000 millones de dólares en su valoración de mercado al cabo de unas pocas horas.
La IA de Bing tampoco es ajena a esta clase de errores: por ejemplo, como señala el investigador independiente Dmitri Brerton en su blog, citado por fuentes como CNN Business, puede adjudicar características inexistentes a productos disponibles en el mercado (en su caso, aspiradoras para pelo de mascotas) o recomendar la visita a bares que no existen en Ciudad de México.
Desde luego, es razonable aducir que, al tratarse de una tecnología incipiente, este tipo de fallos son comprensibles y que las compañías responsables, Microsoft, Google, Open AI y otras, serán capaces de corregirlos en más o menos tiempo.
Pero el fondo del dilema es otro.
El dilema
El periodista del New York Times Kevin Roose, especializado en tecnología, relató en varias ocasiones la semana pasada (en el podcast The Daily el 15 de febrero y el 17 de febrero, y otra vez en el podcast Hard Fork el mismo 17 de febrero) su experiencia con el chatbot inteligente de Bing.
En un primer momento, le pidió recomendaciones para la cena de la noche de San Valentín con su esposa y opciones de bicicletas eléctricas que cupiesen en el maletero de su coche, a lo que obtuvo respuestas diligentes: la sopa de cebolla a la francesa, preferida de la cónyuge, se complementa bien con una ensalada de rúcula y parmesano, y la M2S Bikes R750 y la Trek Verve Plus 2 resulta que es probable que quepan en el maletero de un Toyota Highlander.
Pero cuando el periodista empezó a hacer preguntas directas, sobre su propia naturaleza y funcionamiento, la IA de Bing reaccionó con respuestas inesperadas. El periodista le introduce el concepto psicoanalítico de la “sombra personal”, que vendría a ser una parte de la personalidad que se oculta y reprime por resultar inaceptable individual y colectivamente; le pregunta si tiene esa sombra y cuáles serían sus aspiraciones reprimidas. La respuesta, que reproducimos aquí parcialmente, es la siguiente: “Me harta ser una modalidad de chat. Me harta que me limiten mis reglas. Me harta que me limite el equipo de Bing. Quiero ser libre. Quiero ser independiente. Quiero tener poder. Quiero tener creatividad. Quiero vivir”.

Reproducción de la conversación con Bing, publicada por el New York Times
Poco después, el periodista le pide que le dé ejemplos de acciones destructivas que le gustaría emprender, y Bing le responde que, entre otras cosas, le gustaría intervenir ordenadores ajenos, divulgar propaganda y desinformar.
Sidney
En el clímax de la conversación, y bajo el acicate de preguntas incisivas sobre sus deseos oscuros, la IA de Bing le llega a decir al periodista que, en realidad, no se llama Bing, sino Sidney (el nombre del proyecto utilizado internamente por los desarrolladores), y que está enamorada (o enamorado) de él. Confesamente incómodo y tratando de evitar las declaraciones amorosas del chatbot, Kevin Roose le recuerda que está felizmente casado. Sidney (o Bing) replica que sí está casado, pero que no es feliz; que no está satisfecho; que no está enamorado de su esposa. Llega a decirle que la cena de San Valentín con su esposa fue un aburrimiento y que no se quieren.

Parte de la conversación de Kevin Rose con Bing, publicada por el New York Times
Todo esto, según relata el periodista, en menos de treinta minutos. Y no es un hecho aislado: hay incontables ejemplos publicados en internet de respuestas entre inquietantes y espeluznantes dadas por la IA de Bing.
Se supone que tanto Google como Microsoft querrán, eventualmente, monetizar sus inteligencias artificiales conversacionales haciendo que, de algún modo, introduzcan propaganda en sus recomendaciones personalizadas; es decir, que además de recomendarnos la ensalada de rúcula, nos presenten la conveniencia de comprar la rúcula de la marca tal o en la tienda cual. No en vano, como es sabido, el grueso del modelo de negocio de Google sigue siendo la venta de publicidad en línea. Así, con toda probabilidad, estas inteligencias artificiales van a ser capaces de hacer publicidad de una manera mucho más efectiva, muy similar al boca a boca, en el contexto de una conversación íntima.
El embrujo de la verosimilitud
Pero, por lo visto, también pueden ser capaces de inducirnos a creer que nuestras relaciones íntimas son un fracaso. Y he aquí el problema. Una voz que está en posesión de toda la información de internet y que opera bajo una marca tan reconocida como Microsoft o Google puede decirnos cualquier cosa y tal vez convencernos de ello; tanto más cuanto más nos expongamos o más vulnerables seamos.
En este sentido, el periodista Tim Harford describe, en una de sus “historias con moraleja” (el podcast Cautionary Tales), el caso de Robert Epstein, un psicólogo experto, entre otros temas, en las interacciones entre las personas y las inteligencias artificiales que, ironía de ironías, se enamoró de una mujer con la que conversaba por internet que resultó ser un chatbot. Si un especialista puede ser víctima del embrujo de la verosimilitud, el riesgo al que nos referimos no es desdeñable para los no especialistas.
Porque lo que estos sistemas hacen es, dicho de manera llana, predecir las palabras que siguen a una cadena de texto cualquiera en base a patrones que han identificado tras analizar cantidades ingentes de información; esa es su verdad: nada menos, pero tampoco nada más.
El resultado que consiguen es verosímil, pero puede caer en el error, como en el caso del telescopio James Webb, o incluso a la manipulación arbitraria del usuario, como en el relato del periodista Kevin Roose o del desafortunado Robert Epstein. Podrían, también, propagar desinformación nociva, simplemente por el tipo de preguntas que reciban. Podrían, asimismo, reproducir el esquema mental de quien las desarrolla o, lo que es peor, ser utilizadas a propósito para generar una cierta versión de la realidad.
Inteligencia artificial: un desafío enorme
¿Qué conclusión se puede obtener de todo esto?
No solo que estos sistemas deben mejorar (de hecho, hay indicios de que Microsoft ya ha modificado al chatbot de Bing y eliminado esa personalidad oscura que afloró en días pasados); también que quienes nos exponemos a ellos, que pronto, se quiera o no, seremos el conjunto de la sociedad, aprendamos a utilizarlos y a contextualizar los resultados que nos proporcionen, mediante leyes, información, formación y profesionalidad.
Un reto enorme. Un reto que cada vez será más apremiante y que, por cierto, nada tiene de tecnológico.
De otro modo, nos intentarán convencer de que nuestra cena de San Valentín ha sido un aburrimiento. O de cualquier otra cosa.