.
Analistas 11/04/2023

¿Creerle a la Inteligencia Artificial?

Juan Isaza
Estratega de comunicación

A medida que las herramientas de inteligencia artificial como ChatGPT se van convirtiendo en nuestros aliados del día a día, comenzamos a entender sus limitaciones. Para la gente de marketing, consultoras o agencias, resulta cada vez más familiar pedirle a ChatGPT tareas diarias: un cuadro con los criterios que aplican los compradores de autos nuevos, un listado de casos de marcas que han revertido el lanzamiento fracasado de un producto. O, por ejemplo, los cinco puntos clave para entender la relación de la generación Z con las marcas de alimentos. Son tareas que nos hubieran tomado, a nosotros o a algún miembro de nuestro equipo, largas horas leyendo documentos, comparando o redactando hasta llegar a tener la información resumida y los puntos clave.

Si algo tienen las plataformas como ChatGPT es que su redacción es perfecta, sus enumerados exactos y el uso del lenguaje correctísimo. Pero, y aquí viene la primera advertencia, no podemos olvidar que en comunicación la forma prima sobre el fondo.

Ya nos lo dijo Paul Watzlawick, famoso psicólogo y teórico de la comunicación, que en todo acto comunicativo hay un mensaje y una relación. El primero tiene que ver con la esencia de lo que estamos diciendo y la segunda es la forma que usamos (términos, formato, vehículo, etc.). La relación influye el contenido y por eso es tan poderosa. Los textos que nos da ChatGPT son perfectos en su forma y ahí está el problema.

Hace poco me llamó la atención la noticia sobre un profesor y un supuesto caso de acoso sexual. Resulta que alguien formuló la pregunta: “mencióneme al menos cinco ejemplos de acoso sexual en universidades americanas”. La respuesta de ChatGPT incluyó el caso del profesor Jonathan Turley de la Universidad de Georgetown cuyo estudiante sostuvo que fue acosada por él durante una excursión de la Universidad a Alaska.

Al pedirle por la fuente de donde obtuvo la información, ChatGPT afirmó que la obtuvo del Washington Post del 21 de marzo de 2018. Pues resulta que, al verificarlo, el profesor Turley nunca ha enseñado en Georgetown, el artículo de Washington Post nunca existió y en sus 35 años de enseñanza jamás ha hecho una excursión con sus estudiantes. Sonaba creíble pero no era verdad.

Con esto no quiero descalificar todo lo que la inteligencia artificial puede hacer por nuestro trabajo. Más bien busca ponernos a pensar sobre la diferencia entre el mensaje y la relación que hay en ChatGPT. No por estar escrito perfecto estamos ante la verdad. No podemos olvidar que la G en GPT significa ‘generativo’ es decir que es un modelo creado para generar o predecir la palabra más obvia que debería seguir en una frase. La P significa ‘pre-entrenado’ y la T es ‘transformativo’.

Es un modelo entrenado para que transforme data en textos que suenen muy reales a partir de una inmensa cantidad de información. En otras palabras, ChatGPT, tal como la comunicación humana, prioriza la relación (la forma) sobre el mensaje (fondo).

Y de nuevo, de ninguna manera es una invitación a no usarlo. Creo que se convierte en una herramienta esencial en nuestro trabajo diario. Solo que hay que verificar, revisar fuentes y aceptar que tiene sesgos porque la información que lo alimenta está sesgada. Y seguramente será cada vez mejor y más veraz. Pero hoy aún no lo es. Así que hay que estar atentos. Muy atentos.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA