Entrevista a Patrícia Ventura, experta en inteligencia artificial y ética en medios de comunicación
“Lo más importante es dar sentido de uso a la IA poniéndola al servicio de la misión periodística”
La consultora e investigadora aborda los desafíos deontológicos de la industria en Iberoamérica a nivel de generación de contenidos mediante inteligencia artificial destacando tanto las preocupaciones de los medios como el desarrollo de diferentes guías éticas.
En su condición de doctora en Medios, Comunicación y Cultura por la Universidad Autónoma de Barcelona (España), Patrícia Ventura Pocino se ha dedicado a la investigación de la ética en la inteligencia artificial aplicada a los medios. De esta manera, elaboró en 2021 un informe con lineamientos deontológicos ante la inminente llegada de los algoritmos a las redacciones periodísticas.
Dedicada también a la consultoría estratégica para la transformación digital de las comunicaciones, junto con la docencia y la elaboración de proyectos de divulgación para instituciones y administración pública, Patrícia es consultada frecuentemente respecto a la necesidad de estándares éticos para el uso de herramientas de inteligencia artificial en medios de comunicación.
Por ello, no es de sorprender su participación en eventos, seminarios y entrevistas en medios de comunicación en las cuales pone de relieve la necesidad de contar con estos estándares para un uso pertinente y adecuado de herramientas de IA en diversos medios de comunicación. Sus funciones, tanto en la consultoría como en la academia, la llevan a estar permanentemente actualizada en la generación de guías éticas en la industria, las cuales comparte y analiza frecuentemente.
Es por esta visión que los editores del presente informe conversamos con ella respecto a los desafíos y las oportunidades en la materia que tienen los medios de la región en la generación de contenidos mediante el uso ético de la inteligencia artificial, junto con analizar el escenario actual de la industria periodística y cuán necesario es formar en el uso adecuado de estas herramientas a las nuevas generaciones de profesionales de la información.
Desafíos éticos en la región
Alexis Apablaza-Campos y Jaime Wilches (A.A.C & J.W): ¿por qué los medios de comunicación deben definir estándares éticos para la generación de contenidos mediante inteligencia artificial?
Patrícia Ventura (P.V): en primer lugar, hay que tener claro que las herramientas de inteligencia artificial nos pueden ayudar o pueden contribuir a que se haga un mejor periodismo, porque se les pueden delegar tareas mecánicas que hasta ahora hacían los periodistas. Por ejemplo, transcribir entrevistas, etiquetar contenido u otro tipo de tareas que, si las podemos encargar a una máquina, nos liberan de tiempo para investigar, para verificar y para hacer un periodismo más creativo, que es al final lo que más nos gusta a los periodistas. Como bien lo indican en su pregunta, los medios deben definir estándares que prevengan el uso acrítico de la IA. Si usamos herramientas de inteligencia artificial generativa, como las últimas que están en el mercado, hay que tener claro que se basan en procesos estadísticos a la hora de generar lenguaje y están totalmente desconectadas de la factualidad. Ese contenido que generan no tiene por qué ser verídico.
Entonces, eso nos genera un problema ético importante, porque al final la función del periodismo es proporcionar contenido verificado y riguroso. Estas herramientas también implican sesgos y otro tipo de cuestiones que hay que tener presentes antes de utilizarlas. Por lo tanto, estas herramientas que tanto nos pueden ayudar, si se usan de forma acrítica, lo que va a pasar va a ser lo contrario. A lo que van a contribuir es a erosionar la calidad del producto informativo.
“Transcribir entrevistas, etiquetar contenido u otro tipo de tareas que, si las podemos encargar a una máquina, nos libera de tiempo para investigar, para verificar y para hacer un periodismo más creativo, que es al final lo que más nos gusta a los periodistas”.
(A.A.C; J.W): ¿cuál es el panorama actual?, ¿solo las grandes redacciones de Estados Unidos y Europa tienen definidos lineamientos éticos específicos para el uso de IA o bien hay casos destacados a nivel hispanohablante?
(P.V): las guías o los códigos éticos que han publicado en medios de comunicación u organismos, proceden principalmente de países anglosajones o Estados Unidos, como son los casos de USA Today, The Financial Times, The Associated Press y de Reuters. En cuanto a Europa, la BBC desde hace tiempo que tiene una guía para el uso de la inteligencia artificial y ahora publicó una específica para las herramientas generativas; lo mismo sucede en Francia con France Press (AFP) y Le Parisien, por ejemplo. Finalmente, en España destacan los actores públicos como EFE (agencia que presentó su recientemente su guía) y
Radio Televisión Española (que tiene un posicionamiento claro ante el uso de IA); además del Consejo de la Información de Cataluña, el cual publicó en 2021 un decálogo para el uso ético de la inteligencia artificial en los medios de comunicación.
El hecho de que en Latinoamérica no se haya destacado por la elaboración o la publicación de guías éticas para el uso de inteligencia artificial, no significa que no exista preocupación. De esta forma, el escenario debe ser muy similar al de España, donde pese a que no hay muchos casos más allá de los mencionados, la falta de estándares públicos no significa que el resto de los medios no se preocupe al respecto.
Por otro lado, también este tipo de reflexiones en los propios medios acostumbran a ir acompañadas del mismo uso de este tipo de herramientas. Este tipo de herramientas se empezaron a usar desde hace un buen tiempo en países anglosajones, por lo que es normal que estemos todavía un poco rezagados.
(A.A.C; J.W): ¿cuáles son los principales desafíos éticos en la generación de contenidos mediante inteligencia artificial para los medios de comunicación de Iberoamérica?
(P.V): si bien hay riesgos comunes para toda la industria a nivel global, como la necesidad de supervisión de estos sistemas que no son factuales y están expuestos a sesgos; específicamente en Iberoamérica, quizás destacaría que, mientras en Europa disponemos de regulación legal que nos ayuda a establecer unos ciertos límites en determinados usos, eso no ocurre en Latinoamérica, por lo cual ese tipo de regulaciones facilitan las cosas a la hora de darle un uso ético a estas herramientas. Por poner un ejemplo, en Europa disponemos del Reglamento General de Protección de Datos, que nos es muy útil a la hora de tomar decisiones sobre cómo gestionar los datos de forma que respeten los derechos de las personas. Luego, disponemos -también desde hace muy poco- de las directrices que marca la IA Act que es la primera ley del mundo que regulará la inteligencia artificial y es una ley que marca, por ejemplo, que el contenido sintético y generado por inteligencia artificial deberá ser claramente señalado.
Entonces, este tipo de regulaciones existentes en Europa y no existentes en América Latina implican más proactividad por parte de los medios de comunicación a la hora de reflexionar sobre cómo usar de forma ética estas herramientas. Por ejemplo, para proteger la privacidad de las personas, para dar a entender cuando un contenido es generado por IA o es generado por una persona. Todo este tipo de reflexiones que ya se han hecho desde estos organismos reguladores es necesario que se hagan desde las propias redacciones de la región.
Integración, regulación y academia
(A.A.C; J.W): ¿qué límites o códigos se deben establecer, tanto en medios de comunicación como en agencias informativas, para integrar adecuadamente la IA dentro una redacción periodística con profesionales humanos?
(P.V): lo más importante, que lo resumiría todo, es tener la capacidad de dar sentido al uso de estas herramientas y ponerlas al servicio de la misión del periodismo, que es básicamente, proporcionar información confiable a la ciudadanía para que pueda tomar decisiones informadas. Por otro lado, brindar información desde diversas fuentes contribuye el diálogo democrático y evita la polarización social. Entonces, esto tiene que ver con algunas cuestiones que hemos apuntado antes, con la necesidad de supervisar los sistemas automatizados para que nos ayuden a ofrecer información veraz y sin sesgos. En el caso de los recomendadores de contenidos es importante identificar que no vayan en contra de ofrecer información diversa, porque sabemos que estos algoritmos aprenden del comportamiento de las personas y tienden a mostrarles más de aquello que consumen, y eso, digamos, que erosionaría esa función del periodismo de exponer a las personas distintas perspectivas de un hecho noticioso. Luego están las cuestiones de la personalización de los contenidos y que se deben limitar hasta cierto punto. Si un usuario tiene la tendencia a leer noticias de deportes se le ofrecen boletines personalizados del tema de su preferencia, pero también es importante mostrarle otros hechos de la agenda noticiosa.
Otro punto fundamental es el de los sistemas automatizados, aquellos que se alimentan con bases de datos. Estos deben ser tratados con cuidado, con rigor y respeto a la privacidad. También está la reflexión sobre cómo utilizar estas herramientas para hacer un periodismo más ético, por ejemplo, ¿cómo usar la inteligencia artificial para verificar contenidos? Hay experimentos muy interesantes en la detección de sesgos de la información. Estas herramientas pueden servir para detectar si el medio tiene sesgos de género, por ejemplo, u otro tipo de sesgos en todo su contenido.
De todos modos, aquí habría muchísimo que decir y aquí en Cataluña porque, como decíamos antes, publicamos con el Consejo de la Información un decálogo con recomendaciones para el uso ético de la inteligencia artificial. Los invitaría a echar un vistazo porque aquí, como les digo, no quisiera extenderme demasiado.
(A.A.C; J.W): ¿cree que los desafíos éticos de generar contenidos informativos mediante inteligencia artificial son de competencia exclusiva de la industria periodística o se requiere un papel más activo de instituciones estatales e internacionales?
(P.V): por supuesto que es necesario un compromiso que va más allá de la industria periodística, un compromiso institucional. Como comentaba antes, daba el ejemplo de que hay determinadas cuestiones como el hecho de que estén reguladas, el tema de la privacidad o el tema de la transparencia a la hora de señalar los contenidos sintéticos, de poner marcas de agua en imágenes o en textos generados por inteligencia artificial, a los que obligará la regulación europea, pues son de ayuda para los medios. Por supuesto tiene que existir ese compromiso institucional y no sólo en lo que tiene que ver con la gestión de la información con inteligencia artificial, sino en muchas otras cuestiones.
“Existe una reflexión sobre cómo utilizar estas herramientas para hacer un periodismo más ético, por ejemplo, ¿cómo usar la inteligencia artificial para verificar contenidos? Hay experimentos muy interesantes en la detección de sesgos de la información”.
Pienso que sin duda las instituciones deben implicarse en la regulación sobre los usos de la inteligencia artificial en la comunicación, porque está en riesgo el derecho a la información de la ciudadanía, y es necesario que exista un agente, una institución en quien confiar para recibir la información y, por supuesto, pensamos que es el periodismo quien está en condiciones de asumir esa función.
No obstante, también debemos tener en cuenta las plataformas digitales, que también son plataformas periodísticas, de mediación algorítmica que gestionan la información mediante algoritmos y ahora también con estas herramientas de inteligencia artificial generativa, tienen el desafío de elaborar información rigurosa y bajo estándares éticos. Si pensamos que es necesario defender el periodismo, el buen periodismo, el periodismo de calidad y riguroso y su función democrática, las instituciones deberían implicarse en distintas formas en regulaciones, y, sobre todo, también en proteger la existencia de información de calidad.
“Si pensamos que es necesario defender el periodismo, el buen periodismo, el periodismo de calidad y riguroso y su función democrática, las instituciones deberían implicarse en distintas formas en regulaciones, y, sobre todo, también en proteger la existencia de información de calidad”.
(A.A.C; J.W): ¿cuáles deberían ser las claves del debate académico sobre la ética y la IA en los grados de Periodismo (u otras carreras afines a la comunicación social) dentro de las universidades iberoamericanas?, ¿cómo revaluar las materias dentro de las aulas de clase con estas nuevas herramientas?
(P.V): la principal reflexión que debemos hacer desde el periodismo es cómo incorporar esta tecnología a lo que venimos diciendo hasta ahora, dándole sentido, y ese sentido no puede ser otro que poner la inteligencia artificial al servicio de la misión del periodismo. Eso implica dotarla de estándares éticos como los que ya hemos ido comentando.
Hay que tener en cuenta que una de las principales amenazas para el periodismo en el contexto comunicativo que vivimos es su propia desaparición, su irrelevancia. Decíamos que, con la llegada de las plataformas digitales, al principio de los años 2000, 2005, 2010, ya fue un golpe fuertísimo para la supervivencia de los medios de comunicación, del ecosistema tradicional de la esfera mediática. Como consecuencia de esta mediación algorítmica, de esta capacidad de gestión de los contenidos de estas plataformas, tenemos más herramientas para producir contenidos y más para que sean distribuidos. Sin embargo, eso no ha garantizado, como hemos visto, que la sociedad esté mejor informada, pues ya tenemos fenómenos como las cámaras de eco y la desinformación. Por lo tanto, sigue siendo importante que exista el periodismo para proporcionar información de calidad, confiable y rigurosa.
Por eso es importante entender cómo usar estas herramientas en favor de ese periodismo de calidad. Pero, por otro lado, con las inteligencias artificiales generativas, nos encontramos con este riesgo aún más acentuado de pérdida de relevancia del mismo periodismo. Si al final estas herramientas de inteligencia artificial generativa acaban absorbiendo los contenidos de los medios de comunicación, que es lo que está pasando, ¿Para qué las personas van a querer pasar por los medios de comunicación a informarse, si ya existen estas herramientas a quien poder preguntar cualquier cosa?
Hay que trabajar en este marco. El principal riesgo para el periodismo hoy es convertirse en irrelevante, desaparecer, si todos sus contenidos son absorbidos por estas herramientas. Hay que reivindicar su función social. La ética de la comunicación arraiga en el reconocimiento que la información de calidad ejerce una función social que va más allá de los beneficios económicos. En este sentido, la ética de la comunicación aplicada a la IA es imprescindible para la salud de la esfera pública.
Es por ello que si el periodismo incorpora a la tecnología e inteligencia artificial de manera acrítica y empieza a ofrecer información poco rigurosa, no supervisada, y además se deja seducir por estas promesas de productividad de esta tecnología, si acaba automatizando la generación de contenidos al máximo, si acaba automatizando la personalización de los contenidos, pues lo que va a erosionar es su propia ontología, su razón de ser, que es proporcionar esta información de calidad.
Entonces, desde los medios y desde las facultades y la academia, es el marco que debemos adoptar. A pesar de algunas resistencias, ya hay experiencias exitosas de asignaturas que son abordadas desde la perspectiva de la IA generativa y que tendrán que actualizarse con las propuestas curriculares que se ofrece en espacios de aula como ética y deontología periodística. Este sería un poco el marco mental sobre el que podríamos trabajar en las Facultades de Comunicación.
Publicaciones destacadas de Patrícia Ventura
- Ventura Pocino, P. (2021). Algoritmos en las redacciones: Retos y recomendaciones para dotar a la inteligencia artificial de los valores éticos del periodismo. Barcelona: Consell de la Informació de Catalunya. https://fcic.periodistes.cat/wp-content/uploads/2022/03/algorismes_a_les_redaccions_ESP_.pdf (Como lo explica en la entrevista, un decálogo con recomendaciones éticas para el uso periodístico de inteligencia artificial).
- Ventura, P. (13 de abril de 2023). Guías éticas para el uso de la inteligencia artificial en el periodismo. Obtenido de https://www.patriciaventura.me/single-post/gu%C3%ADas-%C3%A9ticas-para-el-uso-de-la-inteligencia-artificial-en-el-periodismo (Una entrada de su blog, permanentemente actualizada, con una síntesis de las principales guías éticas en el uso de IA de medios de comunicación de todo el mundo).
Rellena el formulario y descarga el informe completo sobre ‘IA para la generación de contenidos en Iberoamérica’