Una encuesta sobre usos de ChatGPT, la aplicación de chatbot de inteligencia artificial (IA) más popular del mundo, en redacciones de medios argentinos fue lanzada por el equipo de la materia «Políticas de la convergencia» de la carrera de ciencias de la comunicación de la Facultad de Ciencias Sociales de la Universidad de Buenos Aires (UBA).
Las respuestas de esta encuesta, que te invito a completarla aquí si trabajas como periodista en relación de dependencia en medios o eres freelance, se utilizarán únicamente con fines académicos en el marco de una investigación que realiza el equipo de la cátedra que encabeza el docente Martín Becerra en la materia citada. El plazo para responder vencerá el 15 de octubre.
Los desafíos de integrar la inteligencia artificial de ChatGPT en las redacciones
A medida que las redacciones recurren cada vez más a herramientas de inteligencia artificial como ChatGPT para mejorar sus capacidades de redacción, se enfrentan a una gran cantidad de desafíos que podrían afectar la integridad periodística y la confianza pública.
Si bien la inteligencia artificial ofrece el potencial de agilizar los flujos de trabajo y generar contenido rápidamente, los peligros asociados con su uso son cada vez más evidentes.
Una de las principales preocupaciones con respecto al uso de ChatGPT en el periodismo es su precisión. El modelo es conocido por generar información que suena plausible pero a menudo incorrecta, un fenómeno conocido como «alucinación».
Si bien ChatGPT puede ayudar a generar ideas y redactar artículos, no debe verse como una solución independiente. La dependencia de la inteligencia artificial sin una supervisión adecuada puede conducir a la difusión de información engañosa, como se vio en los casos en que medios como CNET publicaron artículos plagados de errores a pesar de las afirmaciones de revisión editorial.
Además, las respuestas del modelo están muy influenciadas por sus datos de entrenamiento, que pueden contener sesgos o imprecisiones. Esto plantea cuestiones éticas sobre el potencial de que el contenido generado por inteligencia artificial propague desinformación o narrativas sesgadas.
Los periodistas debemos tener cuidado e implementar procesos rigurosos de verificación de hechos para garantizar que el contenido generado por inteligencia artificial cumpla con los estándares de precisión esperados en el periodismo.
Las implicaciones éticas del uso de inteligencia artificial en las redacciones son profundas. La capacidad de ChatGPT para producir texto similar al humano lo hace susceptible a un mal uso, incluida la generación de noticias falsas.
Este riesgo es particularmente preocupante en una era en la que la desinformación puede propagarse rápidamente a través de los canales de las redes sociales. Sin salvaguardas sólidas y pautas éticas, la inteligencia artificial podría exacerbar los problemas existentes relacionados con la confianza pública en los medios.
Además, la falta de transparencia en torno al contenido generado por inteligencia artificial plantea desafíos adicionales. Las audiencias pueden no ser conscientes de que están accediendo a artículos creados por IA, lo que genera preguntas sobre la responsabilidad y la autoría.
A pesar de las eficiencias que ChatGPT puede introducir en la producción de noticias (como resumir artículos o generar titulares), la supervisión humana sigue siendo crucial. Los periodistas debemos analizar críticamente y refinar el contenido generado por inteligencia artificial para garantizar que se ajuste a los estándares periodísticos y las consideraciones éticas.
La dependencia de la inteligencia artificial no debería disminuir el papel del juicio humano en la cobertura periodística; más bien, debería complementarlo.
Además, a medida que las redacciones adoptan estas tecnologías, la capacitación y la educación para los periodistas se vuelven esenciales.
La integración de ChatGPT también plantea preocupaciones sobre la privacidad del usuario y la seguridad de los datos. Las organizaciones de noticias deben sortear las complejidades de manejar información sensible de manera responsable mientras utilizan herramientas de IA.
Garantizar que los datos de los usuarios estén protegidos durante las interacciones con los sistemas de inteligencia artificiales fundamental para mantener la confianza de las audiencias.
Si bien ChatGPT ofrece oportunidades prometedoras para mejorar la eficiencia y la productividad periodística, su integración en las salas de redacción está plagada de desafíos.
Abordar cuestiones relacionadas con la precisión, la ética, la supervisión humana y la seguridad de los datos será fundamental a medida que los periodistas busquen aprovechar los beneficios de la inteligencia artificial sin comprometer sus valores fundamentales ni la confianza del público. A medida que esta tecnología evoluciona, también deben hacerlo los marcos que guían su uso responsable en el periodismo.
Si te gustó o sirvió algo que publiqué, te ofrezco dos alternativas para agradecer y permitir la continuidad de mi trabajo en Bahía César, haciendo clic sobre ellas:
Introduce tu correo electrónico para suscribirte a Bahía César y recibir avisos de nuevas notas.