SciELO - Scientific Electronic Library Online

 
 número37Buscando al enemigo: comunicación política y estratégica del gobierno mexicano ante la guerra Rusia-UcraniaLa declinación hegemónica estadounidense y la emergencia del multipolarismo: desafíos para Latinoamérica índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


URVIO Revista Latinoamericana de Estudios de Seguridad

versión On-line ISSN 1390-4299versión impresa ISSN 1390-3691

URVIO  no.37 Quito sep./dic. 2023

https://doi.org/doi.org/10.17141/urvio.37.2023.5992 

Articles

Políticas de comunicación e inteligencia artificial: nuevos desafíos

Communication Policies and Artificial Intelligence: New Challenges

Políticas de Comunicação e Inteligência Artificial: Novos Desafios

1 Departamento de Periodismo, Universidad de Málaga, España, seijas@uma.es


Resumen

La inteligencia artificial presenta importantes desafíos; es necesario que gobiernos e instituciones evalúen sus consecuencias y efectos para abordar los cambios que implica. El objetivo de este estudio es comparar las regulaciones sobre inteligencia artificial en España, la Unión Europea y Estados Unidos, y examinar cómo podrían afectar la formulación de políticas de comunicación y, en última instancia, a los medios de comunicación. La metodología utilizada incluye el estudio documental, para localizar hallazgos clave, y el análisis comparativo de las regulaciones sobre inteligencia artificial. La inclusión de la inteligencia artificial en los medios de comunicación requerirá control sobre decisiones y efectos, lo cual plantea nuevos interrogantes sobre la formulación de políticas de comunicación.

Palabras clave: inteligencia artificial; medios de comunicación; periodismo; política de la comunicación; regulación de la comunicación

Abstract

Artificial intelligence (AI) presents significant challenges. Governments and institutions must assess the consequences and impacts of AI to address the resulting changes. The objective of this study is to compare AI regulations in Spain, the European Union, and the United States and to examine how they could affect the formulation of media policies and, ultimately, the media industry. The research methodology involves a documentary study to uncover key findings and a comparative analysis of AI regulations. Integrating artificial intelligence into the media industry will require oversight of its decisions and effects, thereby giving rise to new questions regarding the formulation of communication policies.

Key words: artificial intelligence; communication policy; journalism; mass media; regulation of communication

Resumo

A Inteligência Artificial apresenta importantes desafios, é necessário que governos e instituições avaliem as consequências e efeitos da inteligência artificial para abordar as mudanças que implica. O objetivo deste estudo é comparar as regulamentações sobre inteligência artificial na Espanha, na União Europeia e nos Estados Unidos e examinar como elas poderiam afetar a formulação de políticas de comunicação e, em última instância, os meios de informação. A metodologia utilizada na pesquisa inclui o estudo documental para localizar achados-chave e a análise comparativa das regulamentações sobre inteligência artificial. A inclusão da inteligência artificial nos meios de comunicação exigirá controle sobre suas decisões e efeitos, o que levanta novas questões sobre a formulação de políticas de comunicação.

Palavras-chave: inteligência artificial; jornalismo; mídia de massa; política de comunicação; regulação da comunicação

Introducción

Los gobiernos y otras instituciones están considerando las transformaciones derivadas del uso de la inteligencia artificial (IA), con el objetivo de evaluar sus posibles efectos y consecuencias. Para abordar el tema, en este texto se utilizará la definición proporcionada por la Comisión Europea: son sistemas de software y hardware diseñados por seres humanos. Esos sistemas actúan en las dimensiones física o digital, mediante la percepción de su entorno a través de la obtención e interpretación de datos que recopilan, decidiendo las acciones más favorables para alcanzar un objetivo (Dirección General de Redes de Comunicación, Contenido y Tecnologías de la Comisión Europea 2019).

La IA se presenta como una tecnología prometedora para el desarrollo, lo cual también incluye la mejora de los medios de comunicación. Ofrece oportunidades para combatir la desinformación, mejorar la gestión de la privacidad y promover un enfoque ético que evite sesgos en la toma de decisiones informativas. Sin embargo, plantea riesgos como la automatización de las tareas en busca de una audiencia más amplia y la posibilidad de que el periodismo se aleje del reportaje de noticias y se enfoque exclusivamente en la investigación, lo que requerirá una reestructuración de las empresas periodísticas (Manfredi y Ufarte 2020). Se necesitará tiempo para comprender las consecuencias de modificar el modelo de negocio y permitir que los profesionales del periodismo se adapten a las nuevas infraestructuras y herramientas, y adquieran formación digital (Túñez-López, Fieiras-Ceide y Vaz-Álvarez 2021).

La inclusión de la IA en los medios plantea la pregunta de si es necesario establecer un control en las decisiones relacionadas con su uso. En caso afirmativo, los actores involucrados en el diseño, la implementación y el desarrollo de la IA, así como las personas responsables de su introducción en el sector de la comunicación, deberían participar en dichas decisiones y mitigar los riesgos derivados del uso de IA, a través de una regulación clara. La normativa en el ámbito tecnológico ha generado debates sobre las posibilidades de regulación, cómo y qué regular (Galli 2021).

Aunque la IA plantea numerosas interrogantes sobre el futuro de la prensa y las nuevas políticas de comunicación que se establecerán al respecto, su incorporación suscita, sobre todo, problemas relacionados con cuestiones éticas. Estos problemas podrían resolverse mediante la aplicación de normativas que fomenten buenas prácticas y responsabilidad, abordando los cambios introducidos por la IA desde una perspectiva jurídica y ética (Monti 2018). El objetivo principal de este estudio es proporcionar una visión comparativa de las regulaciones sobre IA en España, la Unión Europea (UE) y los Estados Unidos (EE. UU.), considerando a este último como un país clave en el avance de la IA. Además, se busca examinar cómo estas regulaciones pueden influir en la formulación de políticas de comunicación y su impacto en los medios.

Metodología

Para lograr el objetivo de este estudio, se identificaron hallazgos clave a través de la investigación documental, mediante un análisis exhaustivo de informes de la UE, la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). Además, se han analizado estudios relacionados con la IA y el periodismo.

Los aspectos de las regulaciones sobre IA que pueden influir en la formulación de políticas de comunicación son los siguientes: transparencia, protección de datos, responsabilidad, discriminación y sesgos.

Una vez identificados, se realizó un análisis comparativo de regulaciones sobre IA, con los siguientes objetivos:

comprobar si los hallazgos clave están incluidos en las diferentes regulaciones sobre IA;

observar similitudes y diferencias;

analizar las orientaciones de las regulaciones planteadas y cómo podrían afectar a los medios de comunicación, y

encontrar posibles enfoques para orientar políticas de comunicación.

¿Por qué es necesario comparar? La comparación es fundamental para construir un conocimiento empírico sobre el fenómeno analizado. Se realiza mediante el examen de los datos existentes, estableciendo similitudes y diferencias con el objetivo de comprender la subjetividad e intencionalidad en la elaboración de políticas (Grau Creus 2002). Con ese fin, se utilizó una matriz de elaboración propia, basada en la propuesta de Hernández Prieto, Badilla Matos y De la Peña Pérez Alaejos (2018). Dado que las iniciativas de regulación de IA analizadas corresponden a diferentes niveles de regulación, se puede comprobar cómo se implementan y articulan en contextos nacionales y supranacionales. Los resultados proporcionan una aproximación al tipo de políticas de comunicación que podrían formularse, lo cual determinará el futuro desarrollo de la IA en el ámbito de la comunicación (Monti 2018).

Relación de la IA con el periodismo

La IA se utiliza para identificar tareas noticiables, recopilar contenidos, rastrear bases de datos y generar noticias de manera automatizada o transcribir textos. Associated Press y Los Ángeles Times tienen su propia IA, la cual genera noticias online (Salazar García 2018). En Europa, aproximadamente un 68 % de las empresas la utilizan para mejorar la productividad de la plantilla. Sin embargo, la innovación con IA no siempre es la solución a dificultades existentes (Beckett 2019).

En España, el uso periodístico de la IA se centra en la edición automática de noticias. El periodismo automatizado es definido como el que usa algoritmos o software de IA para convertir datos en textos con una intervención humana escasa o nula, excepto en la programación del algoritmo, implica la recolección y selección de datos estructurados de diversas bases de datos según criterios predefinidos (Pérez-Tornero et al. 2020). Aunque la incorporación de la IA en las redacciones pueda aliviar la carga de trabajo o controlar la desinformación, su adopción se ve con cautela.

Para establecer normas de funcionamiento es necesario comprender las necesidades de empresas y profesionales de la comunicación, así como las preocupaciones relacionadas con el uso de la IA (Flores Vivar 2019). Además, existe la inquietud de que con la IA no se transmita a la sociedad cuestiones de interés público o no respete la privacidad de las audiencias, debido a la extracción de datos personales (Ventura Pocino 2021). Entre los efectos adversos de la IA en los medios se encuentran: desaparición de puestos de trabajo, amplificación de información errónea, debido a que los algoritmos priorizan ciertos contenidos y monopolización del uso de datos, lo que cual favorece el control y la influencia sobre el usuario (Izsak et al. 2022).

¿Por qué son necesarios nuevos planteamientos en políticas de comunicación?

Tal y como afirma María Antonia Martín (2003), definir la política de comunicación supone establecer un debate entre los conceptos de poder y comunicación desde diferentes puntos de vista: social, individual, tecnológico y económico. Su desarrollo estará determinado, por un lado, por las nuevas características de los medios, con procesos integrados en la personalización basada en datos y otras tecnologías de IA. Por otro lado, por procesos de regulación muy complejos. Los enfoques existentes para “controlar” el impacto de la IA dependen de cada país.

Existen diferentes maneras de abordar el desarrollo de las políticas de comunicación y regulaciones con respecto a la IA, por ejemplo, la UE opta por la intervención, mediante un paquete de medidas regulatorias de la IA. Sin embargo, EE.UU prefiere no tener derechos especiales para los medios, ni proteger el periodismo de la IA (Tambini 2021). Actualmente es importante tener en cuenta quién y cómo gobierna y quién elabora las políticas de comunicación (Roth 2014).

Análisis: marcos regulatorios

Se prevé que la regulación de la IA pueda ser tan complicada de abordar como otras innovaciones. Al regular, lo mejor sería invocar una base legitimadora de obligaciones internacionales con consentimiento estatal de sumisión a estas normas. Frente a los riesgos de una expansión descontrolada de la IA, la solución puede estar en el principio de necesidad, vinculado al principio de dignidad humana (García San José 2021).

La regulación, en este campo, se caracteriza por la complejidad del objeto a regular, los diversos intereses y grupos de presión. Sin embargo, como argumenta Petit, no se puede dejar la IA a la autorregulación. Hay que provocar un cambio de mentalidad: No son restricciones impuestas por el Estado, sino oportunidades para crear normas de interés a las preferencias colectivas y que generen confianza de que estas expectativas se cumplirán en la práctica (Erdélyi y Goldsmith 2018). En la última década, se implementaron medidas para proteger la privacidad y la seguridad, antimonopolio, entre otros. Las disposiciones destinadas a controlar contenidos generan desconfianza, porque existe el riesgo de que puedan afectar derechos fundamentales, limitando o “etiquetando” lo que puede ser o no conveniente (Neuman 2022).

¿Hasta dónde se permite el desarrollo independiente de la IA y al mismo tiempo, evitar el progreso de aspectos negativos?, ¿cómo establecer políticas de comunicación que engloben esa complejidad? La agilidad para reaccionar sobre lo que puede ser justo y positivo dentro de la innovación tecnológica es esencial para desarrollar buenas prácticas y una convivencia en el futuro. Para establecer políticas de comunicación resulta necesario aclarar si el objetivo de estas políticas es proteger y fomentar los intereses ciudadanos o si, por el contrario, se puede dejar la regulación al albedrío de la autorregulación y los códigos éticos, sin riesgos para las personas y las democracias. Sin regulación o limitaciones definidas las tecnologías pueden tomar decisiones que afecten a las personas simplemente porque han sido creados para lograr objetivos de manera eficiente (Ruaro y Guimarães Reis 2020).

4.1 Marco regulatorio supranacional: la UE

El fundamento en la elaboración de regulaciones europeas sobre tecnología busca unificar la difusión de los valores y no perder la “carrera” económica unida a la innovación tecnológica (Martín 2003). Por experiencia, la UE tomó la iniciativa en el control de la IA, aprobó regulaciones para limitar el poder de las grandes empresas y controló la desinformación (Neuman 2022). La Comisión Europea dejó clara la necesidad de adoptar un enfoque multifactorial en las regulaciones y mantener la independencia en cuanto a la capacidad industrial, sin excluir aspectos éticos y derechos fundamentales. Asimismo, la regulación es importante para fortalecer el aspecto económico que acompaña la implementación y desarrollo de la IA, ya que representa un volumen importante de negocio.

La UE ha propuesto tres iniciativas normativas interrelacionadas:

Un marco jurídico europeo que aborda cuestiones relacionadas con los derechos fundamentales y riesgos de seguridad derivados del uso y desarrollo de la IA.

Normas de la UE encargadas de analizar cuestiones sobre responsabilidad en los sistemas de IA.

Revisión de actos jurídicos normativos de seguridad sectorial.

En la misma línea de protección y orientación, el Grupo de Expertos Europeo de alto nivel sobre Inteligencia Artificial (Comisión Europea 2021b) elaboró pautas centradas en el ser humano, las cuales incluyen siete requisitos claves: Acción y supervisión humanas; solidez técnica y seguridad; privacidad y gobierno de datos; transparencia; diversidad, no discriminación y equidad; bienestar ambiental y social; rendición de cuentas. Estas son necesarias para que los sistemas de IA se consideren confiables. Además, añadieron 33 recomendaciones para que sea más competente, sostenible e inclusiva.

El entramado regulatorio de la UE pasa por la creación de la Alianza de IA, que impulsa la generación de políticas desde un enfoque participativo. Esta alianza lleva a cabo discusiones sobre logros y perspectivas de sus políticas y presenta los aspectos principales del Libro Blanco de la Comisión sobre Inteligencia Artificial, cuyo objetivo es coordinar un enfoque europeo de regulación que aborde las implicaciones éticas y humanas de la IA (Comisión Europea 2021).

Sin embargo, la propuesta central de la UE es el Reglamento sobre la IA de 2021, para afrontar los problemas que pueden surgir en el desarrollo de la IA. Este afectará el funcionamiento de los medios y las plataformas digitales. Se aplicarán obligaciones de transparencia en los sistemas que “generen o manipulen contenido o si un sistema de IA se usa para generar, manipular imágenes, audios o vídeos que parezca contenido auténtico debe informarse que el contenido ha sido generado por medios automatizados excepto si responden a fines legítimos” (Comisión Europea 2021a, 18).

Con todo, el reglamento es aprobado por el Parlamento Europeo el 14 de junio de este año y modificará determinados actos legislativos. Incluye enmiendas relativas a sistemas de IA consideradas de alto riesgo y la obligación de explicitar si los contenidos han sido generados por IA. Una de las novedades importantes hace referencia a la aprobación de la definición de sistemas de IA y la inclusión de definiciones nuevas, como la relacionada con la “ultrafalsificación” o la “elaboración de perfiles” (Parlamento Europeo 2023, 44).

El Reglamento supone la primera regulación de carácter global conocida y la primera regulación jurídica de IA. Refleja una toma de posición de la UE ante la irrupción de la IA. Además de las enmiendas y como novedad, en el texto destaca la inclusión en la regulación a implementadores y proveedores de sistemas de IA establecidos en la UE.

También se regulan como sistemas de alto riesgo los de identificación biométrica de control masivo en tiempo real y los biométricos en diferido, solo se permitirán a las fuerzas de seguridad con autorización judicial para delitos graves. Las plataformas de Redes Sociales (RRSS) tendrán que modificar o revisar sistemas de recomendación de contenido para que se supervisen y reduzcan el sesgo de conformación. La aprobación del texto definitivo mostrará cómo se gestionan y regulan cuestiones como la prohibición o la introducción de normas que limiten la vigilancia masiva, el sesgo y protejan a la ciudadanía y a colectivos vulnerables.

El marco regulatorio europeo se refuerza gracias a los siguientes instrumentos jurídicos:

Ley de Mercados Digitales;

Ley de Datos: eliminará los obstáculos al acceso de datos para el sector público y privado. La creación de un espacio europeo de datos garantizará las soluciones de IA en la UE, y

Ley de Servicios Digitales (DSA): promueve un entorno en línea más seguro. Los prestadores de servicios intermediarios dirigidos a usuarios europeos deberán adaptar sus servicios a la normativa europea.

La UE recomienda lo siguiente a las personas encargadas de formular políticas:

1. Fomentar el uso de sistemas basados en blockchain para permitir almacenar y compartir datos sin perder el control en la propiedad.

2. Agrupar datos en Europa para desarrollar IA culturalmente diversa.

3. Fomentar y desarrollar herramientas de evaluación para supervisar estándares y cumplimiento.

4. Adoptar reglas claras que sirvan de marco de referencia sobre la responsabilidad en las decisiones de la IA.

5. Adoptar reglas para que las plataformas en línea publiquen una guía de usuario sobre los sistemas de recomendación.

6. Fomentar la reducción del sesgo en aplicaciones de IA (Izsak et al. 2022).

Este entramado regulatorio no resuelve todos los problemas, algunas de las dificultades más importantes como la responsabilidad por parte de las plataformas en línea aún carecen de solución (Arroyo Amayuelas 2021).

4.2 España

Las políticas de comunicación en España se demoraron debido al desarrollo de nuestro sistema mediático. Aquellas elaboradas en las décadas de los 80 y 90 mostraron muchas contradicciones. En la actualidad es necesario orientar de manera normativa el funcionamiento de los medios y herramientas tecnológicas, por su impacto en la gestión de la información. Las nuevas tecnologías requieren mecanismos públicos para orientarlas (Martín 2003).

En el ámbito mediático, predomina la autorregulación. Se elaboró una legislación laxa sobre comunicación, entre otros aspectos, debido a un pasado nada democrático y a la relación entre política y medios de comunicación. Además, hay que añadir la existencia de grupos de interés que intentan influir en la elaboración de políticas públicas. Por tanto, elaborar una legislación para regular aspectos del sistema mediático genera desconfianza (Hernández Prieto 2015), lo que podría obstaculizar el desarrollo de políticas orientadas a los medios y al interés público. España sugiere diseñar políticas basadas en los desafíos de la IA, centrándose en el acceso a los datos, la transparencia y la financiación, e incluyendo a actores clave (Caramiaux 2020). Para ello, plantea seis ejes estratégicos, resumidos en el informe de estrategias nacionales de IA (diciembre de 2020):

1. impulso a la investigación, desarrollo tecnológico e innovación;

2. fomento de las capacidades digitales;

3. desarrollo del talento nacional y atracción del internacional, avance de infraestructuras que den soporte a la IA;

4. integrar la IA en la transformación de la economía;

5. impulsar el uso de la IA en las estrategias nacionales, y

6. establecer un marco ético que garantice los derechos individuales.

El Sistema Español de Ciencia, Tecnología e Innovación (SECTI) coordina las políticas de investigación en IA. Se establece un plan de digitalización del sector público para el período 2021-2025, así como una Carta de Derechos Digitales y un nuevo marco legislativo (Van Roy et al. 2021). La Estrategia Nacional de IA (ENIA) tiene como objetivo principal vertebrar la acción de las diferentes administraciones y crear un marco de referencia para el sector público y privado. Esta estrategia es uno de los elementos fundamentales de la Agenda España Digital 2025, en la cual la IA se considera un elemento de transformación social. Los objetivos de la ENIA incluyen la promoción de la innovación y la excelencia científica, la creación de empleo cualificado, la transformación del tejido productivo, el establecimiento de un entorno de confianza, el impulso al desarrollo de valores humanistas asociados con la IA, así como la promoción de la inclusividad y sostenibilidad. Se prevé que los medios de comunicación sean uno de los sectores que experimenten un impacto de 6,7 %, debido al desarrollo de la IA (Gobierno de España 2020).

La iniciativa regulatoria más amplia es la Carta de Derechos Digitales, producto del trabajo del Grupo Asesor de Expertas/os de la Secretaría de Estado de Digitalización e IA del Ministerio de Asuntos Económicos y Transformación Digital. El objetivo es desarrollar nuevos derechos digitales que no difieran de los derechos fundamentales, perfilar los más relevantes en entornos digitales y describir derechos auxiliares. Esta normativa se basa en los derechos digitales establecidos en el Título X de la Ley Orgánica 3/2018 de 5 de diciembre de Protección de Datos Personales y Garantía de Derechos Digitales y en el RD Ley 28/2020 de 22 de septiembre. Los capítulos de esta Carta relacionados con la comunicación se visualizan en la tabla 1.

Tabla 1 Capítulos de la Carta de Derechos Digitales relacionados con la comunicación 

Fuente: elaboración propia con datos de la Carta de Derechos Digitales, Gobierno de España 2021.

Las administraciones públicas quieren impulsar tecnologías para el bienestar y adelantarse a las consecuencias negativas que puedan surgir. La regulación debe ser flexible, la implicación pública servirá para salvaguardar objetivos que van más allá de lo económico o evitar la discriminación (García Blanco 2020). En España, la autorregulación es el principal mecanismo ético, pero en el código ético de la Federación de Asociación de Periodistas de España (FAPE), por ejemplo, no hay mención expresa a la IA. Es necesario indicar qué noticias ha realizado esta para que pueda ceñirse a los criterios del periodismo y controlar los sesgos del algoritmo. El periodista debería ser supervisor del trabajo que realiza la IA (Ufarte, Calvo y Murcia 2021).

Abordar seriamente las políticas de comunicación españolas, de manera coherente con la realidad en la que se desarrollan, constituye una necesidad. Su implementación puede contribuir a un mayor conocimiento de nuestro sistema comunicativo (Ruaro y Guimarães Reis 2020). La autorregulación y las políticas pueden establecer un sistema de gobernanza de la IA. La efectividad del derecho puede reforzarse mediante políticas y estrategias éticas en el ámbito de la IA. La ética puede servir de inspiración para la creación de normativas y diversas políticas (Cotino 2019).

4.3 Estados Unidos

La regulación estadounidense es sectorial; adopta enfoques para áreas concretas como privacidad, seguridad y ética. La ley sobre IA más avanzada y pionera es la de Privacidad del Consumidor y Protección de datos en California. En la elaboración de normativa, las agencias gubernamentales tienen un papel destacado. Se han presentado propuestas para la transparencia de los algoritmos y la responsabilidad de organismos autónomos, como el Acta de Transparencia de Algoritmos y la Ley de Responsabilidad de Sistemas Autónomos.

Estados Unidos es líder en el uso y desarrollo de la IA, por lo que la observación y el análisis de su gestión regulatoria pueden sentar las bases para futuras regulaciones en otros países. Aunque aún no cuenta con amplias regulaciones nacionales, se ha desarrollado una estrategia nacional de IA y existen propuestas de proyectos de ley que son también producto de la participación de empresas o grupos privados (Kerry 2019).

La falta de regulaciones en EE. UU tiene su origen en las características propias de su configuración institucional (Abdalá, Lacroix y Soubie 2019). Según Frank Pasquale (Belsunces 2022), la dificultad regulatoria en cuanto a los medios de comunicación, el periodismo y la tecnología se explica, en gran medida, porque la libertad de expresión es un valor público y, de acuerdo con la tradición liberal, los derechos individuales son más importantes que los colectivos. Por tanto, cualquier intento de regulación del área mediática o tecnológica va a enfrentar reclamos. Aun así, en 1976, el Congreso de Estados Unidos creó la Office of Science and Technology Policy (OSTP), la cual se dedica a asesorar al presidente y a la oficina de la presidencia en asuntos de ciencia y tecnología. La OSTP supone una ventaja en cuanto a la previsión y coordinación de diferentes medidas que se puedan tomar con respecto a la introducción de novedades tecnológicas y científicas.

El 12 de octubre de 2016 Estados Unidos comenzó a abordar la actividad de la IA con el informe Preparing for the future or Artificial Inteligence. Presentado por el Comité de Tecnología del National Sience and Technology Council (NSTC 2016), muestra las estrategias del gobierno sobre la IA. Este informe deja claro que la regulación del mercado debe centrarse en proteger la seguridad pública y evaluar los posibles riesgos derivados de la inclusión de la IA, ya que la normativa existente no es suficiente.

El respeto a los derechos civiles y a la innovación resulta fundamental en las regulaciones estadounidenses. Las primeras aproximaciones se centran en los ámbitos de defensa y seguridad. El informe de 2016 define la IA y establece una comisión independiente: la Comisión de Seguridad Nacional sobre IA. Creada para asesorar al entonces presidente Trump, cesó sus operaciones el 1 de octubre de 2021 con pocos resultados extrapolables al impacto de la IA.

Como complemento al informe de 2016, se promulgó el Algorithmic Accountability Act of 2019 (Congress.gov 2019). Esta Ley busca evitar la discriminación provocada por los algoritmos (López 2021). Según resume Will Douglas Heaven (2021), este proyecto de Ley de responsabilidad algorítmica se presenta para mejorar la transparencia, la equidad en las decisiones y, sobre todo, la rendición de cuentas.

La existencia de normas comunes para que las empresas tengan en cuenta el impacto de la IA es clave, ya que tendrán que remitir informes regulares a la FTC (Federal Trade Comission) sobre su actividad con la IA y los algoritmos. Además, los consumidores y defensores podrán consultar los informes. La FTC cuenta con el apoyo bipartidista en el Senado y tiene la facultad de hacer cumplir la normativa. A diferencia de las recomendaciones de la UE, lo que caracteriza a la FTC es que tiene un gran poder regulatorio sobre el territorio nacional, lo que le permite evaluar los sistemas antes de su lanzamiento al mercado (Tutt 2016).

La Carta de Derechos de IA (Bill of Rights of IA), presentada en 2021 por la OSTP tiene la ventaja de contar con el Comité de Tecnología del NSTC. El NTSC supervisa el uso de IA en la industria, promueve el debate y permite la participación pública (Trejo 2019). La Carta es el marco general normativo nacional no vinculante más importante. Se erige sobre cinco pilares estratégicos: sistemas seguros y eficaces; protecciones contra la discriminación algorítmica; protección de datos, notificación y explicación; alternativas humanas; consideración y retroceso.

Para mayor efectividad, se elabora un manual que incorpora medidas protectoras que orientarán las acciones destinadas a evitar que la IA impacte en derechos, oportunidades o acceso del público a cuestiones básicas. Las medidas se dirigen a proteger a las personas sin excluir a las grandes empresas. Se trata de una guía para proteger a la sociedad de las posibles amenazas derivadas del uso de la IA.

Según un estudio de Harvard, existen 55 organizaciones estadounidenses que, entre 2018 y 2022, formularon recomendaciones para políticas relacionadas con la IA, sobre todo en relación con la industria. Sin embargo, apenas se encontraban recomendaciones para los medios de comunicación. En 2022 se aprobaron varias leyes en cinco estados. Algunas prohíben usar el reconocimiento facial en investigaciones criminales, otras, como la de California, promueven la inversión para el desarrollo de IA en guarderías. En Maryland, se establece financiación para su uso en el estudio y la generación de soluciones climáticas (Maslej et al. 2023).

Sin embargo, las medidas proteccionistas siguen siendo escasas. No hay regulaciones suficientes para proteger a la ciudadanía y las que existen no resultan estrictas (Heikkilä 2022). Según el congresista Ted Lieu (2023), en un artículo publicado en el New York Times, pasar de una regulación casi nula de la IA a crear una agencia federal reguladora no sería aprobado por el Congreso. La alternativa sería crear una comisión no partidista para brindar recomendaciones y dejar claro qué se debe regular.

Los aspectos analizados en los diferentes marcos regulatorios quedan reflejados en la tabla 2, donde se comparan las propuestas sobre IA teniendo en cuenta los hallazgos clave.

Tabla 2 Matriz propuesta para el análisis comparado de casos, basada en los hallazgos clave (transparencia, protección de datos, responsabilidad, no discriminación y sesgos) 

Fuente: elaboración propia con base en el diseño de Hernández Prieto, Badilla Matos y De la Peña Pérez Alaejos (2018).

5. Resultados

Una vez analizadas y comparadas las regulaciones, se da respuesta a los objetivos planteados al comienzo del análisis (tabla 3):

Tabla 3 Comparación de objetivos entre Estados Unidos, Unión Europea y España 

Fuente: elaboración propia

Las regulaciones analizadas incluyen todos los hallazgos clave. En la UE se aprecia en la aprobación del Reglamento europeo de IA de 14 de junio de 2023, en el que la definición de sistemas de IA está en consonancia con las definiciones de la OCDE (OECD Legal Instruments 2019). Además, en el caso estadounidense la protección de datos es uno de los pilares de la carta. En todos los casos hay coincidencia en la protección a las personas sin olvidar el componente económico y de desarrollo tecnológico.

Las diferencias, aportan evidencias sobre el desarrollo de la IA y sus necesidades específicas: evitar y controlar el sesgo o promover los derechos fundamentales y la igualdad.

En cuanto a la orientación de las políticas de comunicación en EE. UU, la Carta de derechos IA estadounidense puede provocar que los medios de comunicación se adapten solo a las disposiciones generales. A pesar de la resistencia estadounidense a ampliar regulaciones, la Carta ha suscitado la aparición de normativa sobre IA en diferentes estados. Pero no se prevé ningún tipo de protección especial a los medios ni a las empresas mediáticas. Se anticipan dificultades en el proyecto de crear una agencia federal reguladora de la IA por la tradicional resistencia norteamericana a las regulaciones. La Carta, influirá en futuras normas relativas a la transparencia y control de sesgos, pero al ser de adhesión voluntaria se encontrarán diferentes niveles de transparencia en los medios de comunicación y su introducción dependerá de la filosofía de cada empresa.

En la UE, la orientación de las políticas de comunicación se dirige a reforzar la normativa europea sobre IA. Pero puede existir dificultad en la elaboración de políticas de comunicación específicas complicada por la aparición de regulaciones paralelas, como las Directivas sobre responsabilidad civil y el control de datos respaldado por el Reglamento General de Protección de Datos (RGPD). En cuanto a su impacto en los medios tendrá que esperar a su articulación con la futura Ley de Medios de la UE.

En España, la Carta establece la base para la activación de otras leyes. El capítulo XV de la Carta aborda la cuestión de la delimitación de contenidos y el riesgo de censura indirecta en los medios de comunicación. Sin embargo, es importante destacar que la Carta española no proporciona criterios claros para esta delimitación de contenidos. Por lo tanto, será necesario establecer criterios precisos y transparentes en este ámbito

Los enfoques de las regulaciones estadounidenses se dirigen a permitir el establecimiento de políticas sectoriales centradas en ámbitos más específicos. Las políticas de comunicación van a tener que dirigirse hacia una visión nacional común en aspectos relacionados con la protección a los usuarios y el respeto a los derechos civiles. El enfoque de las políticas europeas, no va a dejar mucho margen de acción al resto de los Estados miembros porque el Reglamento es de obligado cumplimiento y estará guiado por el entramado de normativa tecnológica, de protección de datos y la futura ley de prensa.

El enfoque de las políticas de comunicación en España persigue generar nuevas leyes relacionadas con la IA como la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación (BOE de 13 de julio). Esta Ley establece que los algoritmos de IA implicados en la toma de decisiones han de minimizar sesgos, aumentar la transparencia y la rendición de cuentas. Las políticas pretenderán evitar la discriminación y prevenir el perfilado de datos limitando el refuerzo ideológico o de estereotipos. Se desarrollarán políticas de comunicación para fomentar pequeñas empresas o empresas independientes de comunicación.

Conclusiones

Se observa un impulso global en la necesidad de establecer regulaciones para gobernar la IA, debido a problemas como la discriminación y el sesgo. Con respecto a los medios, es indudable que la IA puede modificar el modelo de negocio y la profesión. Necesitaremos intervención humana para controlarla y que el interés público o la verificación de los hechos no pasen por alto. Una vez implantada la IA en el entorno comunicativo, surgen nuevos problemas. Por tanto, es necesario diseñar políticas que respalden a las pequeñas y medianas empresas de comunicación.

Las regulaciones planteadas desde la UE y las políticas perfiladas desde España vienen marcadas por un componente económico y de protección de derechos. No hay que buscar solamente soluciones fiscales o limitar el poder de las empresas tecnológicas dominantes, se necesitan soluciones conjuntas que protejan a los medios y a la ciudadanía.

Las regulaciones analizadas se dificultarán. Las resistencias entre los Estados de la UE, las generadas por grupos de interés, lobbies y grandes empresas que operan a escala mundial confluyen en Europa. Intentar cohesionar modos de protección a los derechos fundamentales con la libertad de empresa y la competencia resulta complejo, y se desconoce hasta qué punto va a influir en las políticas nacionales. Lo interesante de la regulación europea es la armonización de principios comunes y la inclusión de la perspectiva de derechos humanos en la regulación de las tecnologías emergentes. Sin embargo, la tradicional resistencia norteamericana a una regulación más amplia puede generar problemas y hacer que se traten estas cuestiones dentro de regulaciones nacionales que no están necesariamente orientadas al uso de la IA.

Las regulaciones y el desarrollo de políticas han de incluir una perspectiva ética y de derechos humanos. La autorregulación puede evitar que poderes públicos y privados se excedan y utilicen la carencia de políticas de comunicación para intervenir en el espacio comunicativo. Los planteamientos para las nuevas políticas de comunicación deben tener en cuenta la multifactorialidad, reforzar sistemas de comunicación libres e independientes y encontrar un equilibrio entre la protección, la flexibilidad y la no intervención.

Bibliografía

Abdalá, María Belén, Santiago, Lacroix Eussler, y Santiago, Soubie. 2019. “La política de la Inteligencia Artificial: sus usos en el sector público y sus implicancias regulatorias”, bit.ly/3ZlO272 Links ]

Arroyo Amayuelas, Esther. 2021 “Configurar el futuro digital de Europa”.RED Revista Electrónica de Direito 2(25): 2-4. https://bit.ly/43wyQWa Links ]

Beckett, Charlie. 2019. “New Powers, new responsibilities. A global survey of journalism and artificial intelligence”, bit.ly/3oV5hhTLinks ]

Belsunces, Andreu. 2022. Entrevista a Frank Pasquale. “Gobernar los algoritmos contra el hechizo tecnocrático”. El Salto Diario, 17 de octubre. https://bit.ly/3qySIt2 Links ]

Caramiaux, Baptiste. 2020. “The use of artificial intelligence in the cultural and creative sectors.” Concomitant expertise for INI report: research for CULT Committee”, bit.ly/3sZhPq6 Links ]

Comisión Europea. 2021. “Plan Coordinado sobre Inteligencia Artificial”, bit.ly/3qCs0QjLinks ]

Comisión Europea. 2021. “Reglamento del Parlamento europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la unión”, bit.ly/391CXCp Links ]

Comisión Europea. 2021. “High-level expert group on artificial intelligence”. 7 de junio. https://bit.ly/43Nw2DI Links ]

Congress.gov. 2019. “Algorithmic Accountability Act of 2019”. 11 de abril de 2019. bit.ly/3Rmi2hi Links ]

Cotino Hueso, Lorenzo. 2019. “Ética en el diseño para el desarrollo de una inteligencia artificial, robótica y big data confiables y su utilidad desde el derecho”. Revista Catalana de Dret Públic 58: 29-48. https://bit.ly/3CljMyt Links ]

Dirección General de Redes de Comunicación, Contenido y Tecnologías de la Comisión Europea. 2019. Directrices éticas para una IA fiable. Bruselas: Comisión Europea. bit.ly/43PSBaVLinks ]

Erdélyi, Olivia Johanna, y Judy, Goldsmith. 2018. “Regulating Artificial Intelligence: Proposal for a Global Solution”. Ponencia presentada en la AAAI/ACM Conference on AI, Ethics, and Society (AIES '18), Nueva Orleans, Estados Unidos de América, 2-3 de febrero. doi/10.1145/3278721.3278731 [ Links ]

Flores Vivar, Jesús Miguel. 2019. “Inteligencia artificial y periodismo: diluyendo el impacto de la desinformación y las noticias falsas a través de los bots”. Doxa Comunicación. Revista Interdisciplinar De Estudios De Comunicación Y Ciencias Sociales 29: 197-212. doi.org/10.31921/doxacom.n29a10 [ Links ]

Galli, Erica. 2021. “Información y sesgos algorítmicos en las noticias digitales”. En Inteligencia Artificial y Sociedad, Núcleo IA+SIC, Inteligencia Artificial y Sociedad: Reflexiones desde la comunicación, compilado por Lionel Brossi, Eugenia Rivieri y Ana María Castillo, 25-26. Universidad Nacional de Rosario. https://bit.ly/3NkXS4F Links ]

García Blanco, Iban. 2020. “Informe sobre principios éticos aplicables a la inteligencia artificial, la robótica y otras tecnologías”, bit.ly/3LsTzTO Links ]

García San José, Daniel. 2021. “Implicaciones jurídicas y bioéticas de la inteligencia artificial (IA). Especial consideración al marco normativo internacional”.Cuadernos de Derecho Transnacional13(1): 255-276. https://bit.ly/3Nm99lxLinks ]

Gobierno de España. 2020. “ENIA. Estrategia Nacional de Inteligencia Artificial”, bit.ly/3qvsKXnLinks ]

Gobierno de España. 2021. “Carta de Derechos Digitales”, bit.ly/3P6Y8FQLinks ]

Grau Creus, Mireia. 2002. “Introducción. El estudio de las políticas públicas. Enfoques y metodología de análisis”. En Análisis de políticas públicas en España: enfoques y casos, editado por Mireia Grau y Araceli Mateos, 29-57. Valencia: Tirant lo Blanch. [ Links ]

Heaven, Will Douglas. 2021. “La gran semana contra la IA sesgada: la UE y EEUU empiezan a regular”. MIT Technology Review, 23 de abril. https://bit.ly/3Nn5TWM Links ]

Heikkilä, Melissa. 2022. “A quick guide to the most important AI law you’ve never heard of”. MIT Technology Review , 13 de mayo. https://bit.ly/3EJywILLinks ]

Hernández Prieto, Marina. 2015. “Políticas públicas de comunicación. Estudio comparativo de las legislaciones audiovisuales de Argentina y España”. Tesis Doctoral, Universidad de Salamanca. https://acortar.link/FpTYrFLinks ]

Hernández Prieto, Marina, Ángel, Badilla Matos, y María de la Peña, Pérez Alaejos. 2018. “Discusión y propuesta metodológica para el análisis comparado de legislaciones audiovisuales generales de carácter nacional”.Intercom: Revista Brasileira de Ciências da Comunicação41: 51-70. 10.1590/1809-5844201833 [ Links ]

Izsak, Kincsö, Apolline, Terrier, Stephan, Kreutzer, Thorben, Strähle, Conor, Roche, Marta, Moretto, Stig, Yding Sorensen, Malene, Hartung, Kristina, Knaving, Marlene A., Johansson, Magnus, Ericsson, y David, Tomchak. 2022. Opportunities and challenges of artificial intelligence technologies for the cultural and creative sectors. Bruselas: Comisión Europea. bit.ly/3EK0Af2Links ]

Kerry, Cameron F. 2019. “Breaking down proposals for privacy legislation: How do they regulate?”. Brookings, 8 de marzo. https://bit.ly/3rgqAvz Links ]

2022, de 12 de julio, Ley 15 integral para la igualdad de trato y la no discriminación (BOE de 13 de julio https://bit.ly/48Nk9kq Links ]

Lieu, Ted. 2023. “I’m a Congressman Who Codes. A.I. Freaks Me Out”. The New York Times, 23 de enero. https://bit.ly/3J4TEfe Links ]

López Oneto, Marcos. 2021. Fundamentos para un derecho de la inteligencia artificial. Valencia: Tirant lo Blanch. [ Links ]

Manfredi-Sánchez, Juan-Luis, y María-José, Ufarte-Ruiz. 2020. “Inteligencia Artificial y Periodismo - Artificial Intelligence and Journalism: Una Herramienta Contra La Desinformación”. Revista CIDOB d’Afers Internacionals 124: 49-72. doi.org/10.24241/rcai.2020.124.1.49 [ Links ]

Martín, María Antonia. 2003. “Políticas de comunicación en la España multimedia”.Historia y comunicación social8: 187-205. https://acortar.link/FpTYrFLinks ]

Maslej, Nestor, Loredana, Fattorini, Erik, Brynjolfsson, John, Etchemendy, Katrina, Ligett, Terah, Lyons, James, Manyika, Helen, Ngo, Juan Carlos, Niebles, Vanessa, Parli, Yoav, Shoham, Russell, Wald, Jack, Clark, y Raymond, Perrault. 2023. “The AI Index 2023 Annual Report”. Technical Report. Stanford University CA. bit.ly/3rkOOolLinks ]

Monti, Matteo. 2019. “Automated journalism and freedom of information: Ethical and juridical problems related to AI in the press field”. Opinio Juris in Comparatione 1. bit.ly/3WWBJguLinks ]

Neuman, Nic. 2022. “Digital News Project. Journalism, Media, and Technology Trends and Predictions 2022”, https://bit.ly/3MWNhvrLinks ]

NSTC (National Sience and Technology Committee on Technology). 2016. “Preparing for the future or Artificial Inteligence”, bit.ly/48nviIoLinks ]

OECD Legal Instruments. 2019. “Recommendation of the Council on Artificial Intelligence”. 8 de abril. bit.ly/3J4zpy1 Links ]

Parlamento Europeo. 2023. “Enmiendas aprobadas por el Parlamento Europeo el 14 de junio de 2023 sobre la propuesta deReglamento del Parlamento europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la unión ”, bit.ly/3PmOuxsLinks ]

Pérez-Tornero, José Manuel, Cristina, Pulido, Santiago, Tejedor, Laura, Cervi, Diana, Sanjinés, Wei, Zhang, Sally, Tayie, José Juan, Ruiz, Pere, Vila, David, Corral, Carmen, Pérez, Esteban, Crespo, Esteban, Mayoral, Miguel Ángel, Martín, y Pedro, Cánovas. 2020. “Detección de noticias a través de aplicaciones de inteligencia artificial: La inteligencia artificial aplicada a informativos 2019-2020”,bit.ly/46ei7I7 Links ]

Roth, André Noël. 2014. “Enfoques y teorías para el análisis de las políticas públicas, cambio de la acción pública y transformaciones del Estado”. En Ensayos sobre políticas públicas, editado por Jorge Iván Cuervo Restrepo, 137-160. Bogotá: Universidad Externado de Colombia. [ Links ]

Ruaro, Regina Linden, y Ludmila Camilo, Catão Guimarães Reis. 2020. “Os Desafios Do Desenvolvimento ético Da Inteligência Artificial”.Veritas (Porto Alegre)65(3): 1-14. doi.org/10.15448/1984-6746.2020.3.38564 [ Links ]

Salazar-García, Idoia-Ana. 2018. “Los Robots Y La Inteligencia Artificial. Nuevos Retos Del Periodismo”.Doxa Comunicación. Revista Interdisciplinar De Estudios De Comunicación Y Ciencias Sociales 27: 295-315. 10.31921/doxacom.n27a15 [ Links ]

Tambini, Damian. 2021. “What the EU’s Media Freedom Act could mean for journalism in Europe”. LSE Blog, 16 septiembre. https://bit.ly/3CkrgBV Links ]

Trejo-Rodríguez, Luis-Andrés. 2019. “Regulación de la inteligencia artificial en Estados Unidos de América y Reino Unido”. Tesis de Licenciatura en Derecho, Centro de Investigación y Docencia Económicas, CIDE México. https://bit.ly/44Z7urELinks ]

Túñez-López, José-Miguel, César, Fieiras-Ceide, y Martín, Vaz-Álvarez. 2021. “Impact of Artificial Intelligence on Journalism: Transformations in the Company, Products, Contents and Professional Profile”.Communication & Society34(1): 177-193. https://bit.ly/3ZYGsQ5Links ]

Tutt, Andrew. 2016. “An FDA for Algorithms”. Administrative Law Review 69: 83-123. https://bit.ly/3M3Q2eJLinks ]

Ufarte-Ruiz, María-José, Luis-Mauricio, Calvo-Rubio, y Francisco-José, Murcia-Verdú. 2021. “Los desafíos éticos del periodismo en la era de la inteligencia artificial”.Estudios sobre el Mensaje Periodístico27(2): 673-684. https://bit.ly/3Rqcja8 Links ]

Van Roy, Vincent, Fiammetta, Rossetti, Karine, Perset, y Laura, Galindo-Romero. 2021. Estrategias nacionales sobre inteligencia artificial: una perspectiva europea. Luxemburgo: Oficina de Publicaciones de la Unión Europea. bit.ly/3RrgH92Links ]

Ventura Pocino, Patrícia. 2021. “Algoritmos en las redacciones: retos y recomendaciones para dotar a la inteligencia artificial de los valores éticos del periodismo”, bit.ly/3WWvIjMLinks ]

Recibido: 09 de Junio de 2023; Aprobado: 19 de Agosto de 2023

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons