Uso ético de la IA para reforzar la opinión (A1C12C2D04)

La ética en la inteligencia artificial

La inteligencia artificial ha irrumpido en la sociedad como una herramienta que proporciona beneficios a sus ciudadanos, oportunidades de crecimiento para las empresas y mejoras para el medio ambiente. Sin embargo, un mal uso de esta tecnología puede conducir a obtener resultados opuestos.

En un vídeo anterior hemos visto cómo se puede garantizar que los sistemas de inteligencia artificial se comporten de manera responsable y se alineen con los valores de la sociedad. En este documento se van a presentar diferentes ejemplos de cómo se avanza hacia este objetivo en diferentes ámbitos.

Atención

Los problemas de sesgo y falta detransparencia pueden dar lugar a un incremento de las desigualdades y a la pérdida de biodiversidad.

VÍDEO

BUEN USO DE LA IA PARA REFORZAR LA OPINIÓN

Aprendizaje supervisado, no supervisado y aprendizaje por refuerzo. Método de prueba y error. Objetivo. Finalidad. El algoritmo Q learning. Open AI Gym. Aplicación ética del aprendizaje por refuerzo: administración pública, periodismo, fuentes de datos, rastreadores.

e.digitall.org.es/A1C12C2V06

En el desarrollo de la inteligencia artificial ningún territorio o grupo social debe quedarse atrás por falta de acceso a la tecnología o por el desarrollo de soluciones que no sean suficientemente justas.

Uso ético de la inteligencia artificial en las empresas

Muchas empresas asumen una serie de principios básicos para garantizar la aplicación responsable de la inteligencia artificial en su actividad. Estos principios incluyen:

  • Reflejar la diversidad actuando contra el sesgo.
  • Trasparencia que garantice asumir responsabilidades sobre los resultados de su funcionamiento.
  • Garantizar la igualdad de condiciones. 

Esta visión es compartida por las empresas participantes en el LabS IA Responsable e Inclusiva. Por ejemplo, El Corte Inglés y Hoteles Meliá Internacional aplican inteligencia artificial para personalizar la experiencia del usuario y maximizar las capacidades de sus trabajadores, o la empresa Tendam, que no identifica a los clientes a la hora de analizar sus datos, para adaptarse a sus preferencias sin poner en riesgo su privacidad. Todos estos ejemplos se recogen en
el Decálogo LabS IA responsable e inclusiva.

Uso ético de la inteligencia artificial en instituciones públicas

Una de las principales obligaciones de las administraciones respecto a la inteligencia artificial es la de legislar para garantizar que su uso sea justo y no produzca daños de ningún tipo a la sociedad o el medio ambiente.

 

La legislación con relación a la inteligencia artificial debe incluir aspectos de anticipación, protección efectiva, seguimiento de impacto, ejecución y reparación.

 

Además, las administraciones en su actividad pueden aplicar soluciones de inteligencia artificial en beneficio de la comunidad. Por ejemplo, desarrollando chatbots como el del Gobierno de Aragón que faciliten información en abierto y el uso de herramientas de IA a todos los ciudadanos o iniciativas como Policy Cloud para facilitar la digitalización y gestión de grandes cantidades de datos o uso de la nube en el ámbito público y privado.

Uso ético de la inteligencia artificial en los medios de comunicación

Como se mostró en el vídeo sobre “Automatización mediante IA del sesgo y refuerzo de opinión”, el uso de la inteligencia artificial está muy extendido en los medios de comunicación, pudiendo tener graves consecuencias para la imparcialidad en la información y los puestos de trabajo. Sin embargo, este tipo de herramientas permiten un más rápido acceso a la noticia y aprovechar al máximo las capacidades creativas y de reflexión de los profesionales del periodismo.

VÍDEO

AUTOMATIZACIÓN MEDIANTE IA DEL SESGO Y REFUERZO DE OPINIÓN

Automatización avanzada del sesgo informativo mediante el uso de la IA. Identificación del sesgo introducido. Análisis de técnicas de refuerzo de opinión mediante IA.

e.digitall.org.es/A1C12C1V06

Es por ello que se está trabajando en las redacciones para una implantación ética de esta tecnología, lo que se refleja en documentos como Algoritmos en las redacciones: retos y recomendaciones para dotar a la Inteligencia Artificial de los valores éticos del periodismo, publicado por el Consell de la Informació de Catalunya.

Uso ético de la inteligencia artificial en educación

El ámbito de la educación tiene la responsabilidad de preparar a los futuros desarrolladores de la inteligencia artificial lo que incluye las consideraciones éticas. También de formar sobre ella a todos los ciudadanos mostrando sus ventajas, pero también sus riesgos, y así avanzar en la alfabetización digital de la ciudadanía.

Además, la inteligencia artificial permite avanzar en la personalización del aprendizaje, adaptando los currículos formativos a cada estudiante y así, incrementar sus oportunidades.

Sin embargo, la educación debe afrontar graves riesgos como la gestión responsable de los datos de sus estudiantes, así como evitar el sesgo en la selección de participantes en programas de estudios o en los contenidos impartidos.

Uso ético de la inteligencia artificial en la justicia

La Carta Europea sobre el Uso Ético de la Inteligencia Artificial en los Sistemas Judiciales y su Entorno aprobada en diciembre de 2018 por la Comisión Europea para la Eficiencia de la Justicia, aborda los peligros del uso de herramientas de inteligencia artificial en los juzgados y tribunales. Sin embargo, estas herramientas son útiles a la hora de analizar gran cantidad de documentación y pueden ayudar a que los tiempos de preparación y desarrollo de un proceso se reduzcan, solucionando uno de los problemas más importantes del sistema judicial. Entre las pautas recogidas, destaca que en todo momento los ciudadanos deben ser conscientes de si alguna de las decisiones ha sido tomada por la inteligencia artificial y conocer el razonamiento seguido.

Uso ético de la inteligencia artificial por parte de las grandes compañías tecnológicas

Para terminar, es importante recordar que son las grandes compañías tecnológicas las que lideran el desarrollo de las aplicaciones de inteligencia artificial. Cuentan con una gran cantidad de datos que se incrementa día a día mediante el rastreo de la información que les proporcionan sus clientes a través de su actividad en internet y redes sociales. Por tanto, es una buena noticia que compañías como Google publiquen una serie de principios a seguir en sus desarrollos. Sin embargo, se debe también vigilar que ciertos usos como la eliminación de contenidos que puedan resultar ofensivos no se traduzcan en censura.

Saber más

Aplicación responsable de la inteligencia artificial en las empresas. e.digitall.org.es/etica-ia

Decálogo LabS IA responsable e inclusiva. SERES Fundación sociedad y empresa responsable. Everis. e.digitall.org.es/decalogo-labs

Recomendación sobre la ética en la inteligencia artificial. Acuerdo de la UNESCO adoptado el 23 de noviembre de 2021. e.digitall.org.es/ai-ethics

Ética de la Inteligencia Artificial en el periodismo: nos jugamos el futuro de la profesión. e.digitall.org.es/ia-periodismo

Algoritmos en las redacciones: retos y recomendaciones para dotar a la Inteligencia Artificial de los valores éticos del periodismo. Consell de la Informació de Catalunya. e.digitall.org.es/redacciones

Carta Europea sobre el Uso Ético de la Inteligencia Artificial en los Sistemas Judiciales y su Entorno. e.digitall.org.es/carta-etica

IA en Google: nuestros principios. e.digitall.org.es/principios-ia

Mark Zuckerberg: la inteligencia artificial censurará “los mensajes de odio” antes de que se publiquen. e.digitall.org.es/ia-mensajes-odio