La habitación estaba llena de periodistas. Unos 100 colegas esperábamos a que ChatGPT analizara una tabla de Excel con más de 100 mil árboles que se encuentran en Nueva Orleans. En unos segundos, ChatGPT escaneó el documento, nos dijo cómo podíamos analizarlo a detalle en Excel y nos mostró cuáles eran los árboles más comunes. Creó un mapa con los principales hallazgos y nos dijo cómo colgarlo en Google Maps, con las coordenadas de cada árbol. Para hacerlo, ChatGPT escribió un código en R, una de las formas más comunes como los periodistas de datos crean bases complejas. Lo hizo, ante la perplejidad mía y de mis colegas, desde veteranos hasta estudiantes de periodismo.
En los últimos meses, por ejemplo, Google ha perdido valor de mercado, dado que ahora es más común para los usuarios únicamente leer los resúmenes generados por inteligencia artificial que entrar directamente a buscar páginas web y consultar información.
En periodismo, medios como The New York Times han hecho público que han usado inteligencia artificial para analizar imágenes o para ayudar con análisis de grandes bases de datos. Pero en muchos casos, los periodistas están usando estas herramientas un poco en secreto, incluso dentro de sus propias redacciones.
En otra sesión en IRE, reporteros y editores dijeron que están usando ChatGPT para elaborar solicitudes de información y apelaciones, escribir solicitudes de ayudas financieras, analizar bases de datos o mejorar la metadata de un sitio web. Una colega apuntó que la inteligencia artificial es más importante para redacciones pequeñas y con menos recursos, que no pueden darse el lujo de tener a muchos reporteros investigando una historia, o durante mucho tiempo. Otros reporteros dijeron que la inteligencia artificial les está ayudando a crear titulares más atractivos, transcribir entrevistas y traducir documentos.
Mientras tanto, al debate se agrega un estudio que publicó hace unos días la Universidad Tecnológica de Massachusetts (MIT, por sus siglas en inglés). Durante cuatro meses, los investigadores analizaron a 54 personas que escribían ensayos. Unos solo usaron ChatGPT, otros usaron Google y unos más los escribieron sin ninguna ayuda. Los investigadores analizaron la actividad cerebral de los participantes y concluyeron que los usuarios de ChatGPT tuvieron menos conectividad cerebral y se volvieron más dependientes de la herramienta. Su cerebro se volvió “más perezoso”.
Mientras entendemos mejor las consecuencias y los peligros de un uso cada vez más masivo de estas herramientas, muchas redacciones del mundo están creando políticas para el uso de la inteligencia artificial, considerando la ética, la huella ambiental y la confidencialidad del trabajo. En México debemos encarar este debate y hacerlo pronto.