Nota al lector: Chat GPT le cuenta a este blog cuáles son los riesgos de utilizar Inteligencia Artificial al momento de buscar, procesar y difundir información. Dichos resultados fueron contrastados y complementados con referencias a autores que abordan esta temática.

La Inteligencia Artificial (IA) tiene partidarios y detractores, en especial Chat GPT. Hay personas que ven en ella una gama de posibilidades para potencializar las capacidades humanas al momento de generar contenidos de alto valor. Otros consideran que este tipo de innovaciones suponen una amenaza contra la creación autónoma y una hiperdependencia de la tecnología en varios sectores de la sociedad. En 2023 Sundar Pichai, CEO de Google, advirtió que existe un peligro latente al implementar estos desarrollos de forma acelerada sin medir el impacto negativo por no aplicarlos de la manera correcta.

Chat GPT es quizás la que en su mayoría ha estado en el centro del debate. Su implementación acarrea cuestiones éticas que no pueden ser ajenas a la realidad actual. En el ámbito de la comunicación, especialmente en el periodismo, este tipo de herramientas son tenidas en cuenta para automatizar procesos durante la producción de noticias de interés. No obstante, surgen ciertos desafíos que pueden socavar la credibilidad de los medios.

Chat GPT como herramienta, no como sustituto

La IA tiene una eficiencia cada vez más sorprendente al momento de producir textos. Dada su rapidez y eficiencia (al cumplir las indicaciones solicitadas por el usuario) es empleada por miles de personas que buscan agilizar flujos de trabajo.

¿Pero hasta qué punto, tal como viene desarrollándose Chat GPT reemplazará el discernimiento de la mente humana?

Para Ángela Serrano, docente asistente de sociología en la Universidad de Los Andes (COL), Chat GPT no reemplaza el trabajo humano; lo hace más necesario. Esta reflexión explica que, aunque la herramienta puede ser útil para encadenar palabras mediante oraciones con altas posibilidades de ser coherentes, no produce información nueva. Esto quiere decir, que la IA procesa grandes cantidades datos, pero carece del análisis en profundidad que un periodista puede darle a un hecho noticioso.

Depender de Chat GPT para estructurar por completo un contenido informativo puede llevar a compartir verdades a medias, informes inexactos y relatos engañosos.

Sesgos y falta de contexto

Este tipo de innovaciones tienen la capacidad de construir una narración positiva o negativa de algún fenómeno complejo. Si la fuente principal para la recolección de datos es internet, existe la posibilidad de que se presenten juicios u opiniones como verdades absolutas. Amplificar determinados prejuicios políticos, sociales o culturales puede influir en el pensamiento de las audiencias. Comprender una situación de forma descontextualizada aporta a interpretaciones erróneas.

Ausencia de responsabilidad ética y legal frente al uso de Chat GPT

Depender de las máquinas para explicar la realidad no es un escenario deseable. Las inteligencias artificiales operan mediante algoritmos, que no son otra cosa más que patrones estandarizados de asociación de información. La ética periodística demanda de rigor, transparencia, verificación y honestidad por parte de los comunicadores. «Pensar» a través de una IA implica apartarse de esos principios y arriesgar la credibilidad del medio.

Otro asunto que no se puede desconocer es el debate que suscita la propiedad intelectual y respeto a los derechos de autor. Dar los créditos a la fuente original es el deber ser de cualquier periodista. No en vano, varios profesionales vienen quejándose por el uso indiscriminado de sus producciones como base de escritura de artículos por parte de Chat GPT.

La pérdida de la conexión humana

Escribir para personas, no para buscadores. En ese afán por obtener interacciones y visitas, cada vez surge mayor interés en la generación automática de contenido. El posicionamiento es importante, pero hay que saberlo direccionar. No puede (ni debe) olvidarse que la esencia del periodismo es contar historias sobre experiencias humanas relevantes. Las IA carecen de empatía o sensibilidad para difundirlas porque no poseen sentimientos.

Dependencia tecnológica y pérdida de habilidades periodísticas

La integración excesiva de Chat GPT en el proceso periodístico podría llevar a una dependencia tecnológica que debilita las habilidades esenciales de los periodistas. La capacidad de investigación, entrevistar y contextualizar eventos es fundamental en el periodismo de calidad. La sobre dependencia de la IA podría resultar en la pérdida de estas habilidades, debilitando la capacidad de los periodistas para ofrecer un análisis profundo y una cobertura completa.

Falta de adaptabilidad y limitada comprensión contextual

Chat GPT, como cualquier tecnología, tiene limitaciones. Los modelos de IA se entrenan con datos históricos y pueden no ser capaces de adaptarse rápidamente a eventos en tiempo real o cambios significativos en el entorno informativo. El uso excesivo de esta herramienta podría resultar en la difusión de información desactualizada o con incapacidad para abordar eventos emergentes.

El periodismo no solo informa sobre hechos, sino que también refleja la diversidad cultural y social. Las tecnologías, al carecer de una comprensión profunda del contexto de los acontecimientos abordados, puede generar contenido que no resuene con las sensibilidades de ciertos grupos o comunidades. Esto puede llevar a malinformación, interpretaciones erróneas y, en última instancia, a la alienación de audiencias clave.

Impacto en la confianza del público

Chat GPT

Imagen tomada de Wallpaperflare.com

La credibilidad de los medios hacia el público fundamental para el buen funcionamiento de la democracia. El uso indiscriminado de Chat GPT sin una supervisión adecuada podría socavar esta confianza. Si la audiencia percibe que las noticias son generadas automáticamente sin una evaluación crítica, la credibilidad de los medios podría sufrir, debilitando la relación esencial entre los periodistas y sus audiencias.

Chat GPT requiere de una supervisión humana constante

Aunque puede ser una herramienta valiosa, su uso requiere una supervisión humana constante. La inteligencia artificial no puede reemplazar la ética, el juicio y la experiencia de los periodistas. La implementación de sistemas de verificación robustos y la supervisión activa de profesionales humanos son esenciales para garantizar la precisión y la integridad en el periodismo moderno.

Si te gustó esta publicación de Aprende Periodismo Digital, tal vez podría interesarte:

Tristan Harris: «Sabemos adónde va esto: la tecnología no es neutral»
10 libros sobre periodismo digital gratis para descargar en PDF
6 Tipos de titulares que todo periodista digital debe conocer
Infografía: 5 trucos para combatir la nomofobia y evitar el uso excesivo del celular
Nomofobia: la adicción a los celulares que se propaga por el mundo
Detrás del camuflado: un reportaje multimedia sobre la vida de los militares en los batallones de alta montaña
Alcances de la nueva industria editorial digital
Analytics para periodistas: un curso del Knight Center para entender el comportamiento de las audiencias
Fuentes de información en Internet: posibilidades y riesgos para periodistas digitales
Dementor de Zambia, una mentira de 100 metros que se hizo viral

Rate this post
Comparte