Objetivos de la conferencia

El objetivo del Congreso Orbicom CIAREI “Comunicación, inteligencia artificial, remediación, ética e inclusión” es evaluar las oportunidades y riesgos asociados al desarrollo de la inteligencia artificial (IA) generativa en la comunicación, especialmente desde la perspectiva del uso ético y la inclusión, así como de la remediación de problemas sociales.

Si bien la IA, en sus diversas formas, ha sido desarrollada por informáticos desde los años 1950 y utilizada en la industria desde hace varias décadas, su difusión cambió radicalmente de escala en 2022 con la llegada de ChatGPT, que pone a disposición de todo el mundo capacidades nuevas y excepcionales (Byk 2023) para redactar textos, producir imágenes y, en general, para la gestión compleja de enormes cantidades de datos. Desde entonces numerosos competidores han ingresado al mercado, y el sector se expande rápidamente gracias a las inversiones de los GAMMA (Google, Apple, Meta, Microsoft, Amazon) y los BATX chinos (Baidu, Alibaba, Tencent y Xiaomi). En la mayoría de los sectores profesionales y ámbitos de la vida social se cuestiona la relación entre el ser humano y la máquina, así como de las nuevas modalidades de interacción entre ambos que se implementarán. Más allá de las profecías que vaticinan el fin de la humanidad (Lavazza y Vilaça 2024) o por el contrario un mundo radiante gracias a la tecnología (Bittencourt et al. 2023), es papel de las ciencias humanas y sociales cuestionar las consecuencias de la implantación de la IA en nuestras sociedades. Este congreso plantea interrogantes transversales que atañen a la ética como marco imperativo para el uso de los sistemas de IA y que tienen dos objetivos: la remediación, es decir, la capacidad de proponer soluciones a problemas individuales o colectivos (Duru-Bellat 2009; Rose 2002) y la inclusión, que pretende construir entornos abiertos y accesibles que valoren la diversidad y promuevan la equidad (Sen 2000; Tisseron y Tordo 2022). Las investigadoras e investigadores interesados en presentar una ponencia deberán inscribirse en uno de los siguientes ejes.

Fechas importantes

  • Plazo para el envío de propuestas: 15 de enero de 2025
  • Respuesta a las propuestas con la evaluación del comité científico: 1° de marzo de 2025
  • Plazo para el envío de los artículos completos: 1° de mayo de 2025
  • Respuesta a los autores con la evaluación del comité científico: 15 de junio de 2025
  • Envío de los textos definitivos: 1° de julio de 2025

Congreso: 29, 30 de septiembre y 1° de octubre de 2025

Lugar de la conferencia: Estrasburgo (Francia) en la MISHA (Maison des sciences de l’Homme d'Alsace) y el Parlamento Europeo

Valor de la inscripción: 190 euros que incluyen los 3 días de congreso, pausas y comidas. Mitad de precio para estudiantes de doctorado. Los miembros de Unistra y de las cátedras Unesco están exentos del pago.

Dirección de contacto: chaireunesco@iutrs.unistra.fr

Ámbitos de presentación a la conferencia

Eje 1: Comunicación, IA y ética en la educación

El desarrollo rápido de la inteligencia artificial (IA) está cambiando profundamente nuestras sociedades e influyendo en diversos sectores, entre ellos la comunicación y la educación. En este contexto, la sinergia entre estos campos se vuelve crucial para comprender y aprovechar el potencial que ofrece la IA. El Eje 1 de este congreso propone explorar cómo la IA puede transformar la comunicación y la educación y, a la inversa, cómo los enfoques comunicativos y educativos pueden influir a su vez en el desarrollo y la adopción de la IA tanto por parte de los centros educativos como de alumnos y estudiantes. Al menos desde 2022, se invoca la ética de la IA (Zacklad y Rouvroy 2022) como una moda lingüística, y se está convirtiendo en un tema de investigación en boga, sobre todo en lo que se refiere a los usos de la IA en la educación (Holmes et al. 2021) y, por ejemplo, en el caso de las personas con discapacidades (Neuralink, Seeing AI, etc.). No existe una ética única de la IA y las cuestiones que plantea son abordadas por diversas disciplinas como las ciencias de la información y la comunicación, las ciencias de la educación, la informática, el derecho, la filosofía, la psicología, etc.

Eje 2: Comunicación política y organizacional

Además del desafío de la protección de los datos personales, estos son un recurso necesario para la comunicación pública y política, tanto durante las campañas electorales como en el periodo de gobierno. Las instituciones, los actores políticos, los medios de comunicación y los ciudadanos pueden utilizar este recurso, asociado o no a la IA, para promover sus intereses y difundir sus propios mensajes. Sin embargo, existen riesgos inherentes a la protección de datos y al respeto de las reglas democráticas (Portnoff y Soupizet 2018). Los avances en inteligencia artificial están dando lugar a logros como el reconocimiento de personas en imágenes, la creación automática de contenidos, el análisis semántico, etc., exacerbando al mismo tiempo los temores relacionados con la esclavización de los seres humanos por las máquinas, la manipulación del comportamiento, la vigilancia masiva, etc. (Villani et al. 2018). Este eje propone los siguientes interrogantes: ¿cómo afecta la IA a la geopolítica y a las estrategias de las políticas públicas? ¿Cuáles son los poderes y contrapoderes de la IA en la gobernanza y la toma de decisiones (Conseil d'État 2022)? ¿Cómo se aplican la protección de datos y el principio de verdad, ética y deontología? Entre el medio de comunicación y el individuo ciudadano, ¿cuál es el papel de la IA en las redes de influencia (Ronzaud y Ruan 2022)? ¿Cómo generar confianza y fomentar el rendimiento en la acción pública?

Eje 3: Medios de comunicación y periodismo. El periodismo frente el reto de la IA

¿La IA representa una ventaja para los periodistas y, en términos generales, para el periodismo? ¿La llegada de la IA a las salas de redacción de los medios de comunicación no es más que la última evolución de un sistema que siempre ha sido muy evolutivo (Béasse y Viallon 2023)? Desde el punto de vista tanto de los profesionales de la información como del público, ¿es posible prever una configuración mutua y equilibrada de la relación periodista-tecnología basada en la dimensión social específica de la actividad periodística? Las ponencias para este eje se centrarán tanto en las aplicaciones concretas de la IA en la práctica periodística (Saint-Germain y White 2023) como en su impacto en los periodistas y sus audiencias. Específicamente, se tratará de realizar un diagnóstico crítico de las perspectivas de la IA en el periodismo a la luz de los retos existenciales a los que se enfrenta actualmente esta profesión.

Eje 4: Comunicación medioambiental

El objetivo es examinar los desafíos éticos y las oportunidades de la IA para la comunicación medioambiental que se ha convertido en un reto social importante y requiere un enfoque global y transversal (Libaert 2016). El uso de la IA debe con mayor razón permitir de reflexionar sobre los riesgos de “sesgo ético” relacionados con los datos utilizados para entrenar los algoritmos (Domenget et al. 2022), dado que los temas ambientales son particularmente susceptibles de dar lugar a discursos icónicos y lingüísticos que pueden crear un imaginario distorsionado (Fodor, 2011). Desde el punto de vista de las tecnologías en acción, “la huella medioambiental de la IA generativa, especialmente en términos de emisiones de gases de efecto invernadero y de consumo de agua, sigue siendo considerable” (Le Goff 2023), por lo que es necesario reflexionar sobre el desarrollo de soluciones de IA sostenibles y respetuosas del medio ambiente, así como sobre el uso ético, responsable y sostenible de estas herramientas. Entre las preguntas a las que pueden responder los ponentes figuran las siguientes: ¿cómo garantizar que los datos procesados por la IA representen fielmente la realidad medioambiental, sin exageraciones ni distorsiones? ¿Qué tipos de sesgo pueden darse en el tratamiento de los datos medioambientales y cómo influyen estos sesgos en la percepción de los retos ecológicos? ¿En qué medida la IA podría contribuir a conformar un imaginario medioambiental que aleje al público de la realidad científica? ¿Cómo puede utilizarse la IA para reforzar la comunicación responsable y evitar el sensacionalismo o la manipulación en el discurso medioambiental? ¿Cuáles son las repercusiones medioambientales directas del uso de la IA en la comunicación medioambiental y cómo pueden medirse? ¿Qué marcos éticos o normativos podrían adoptarse para orientar el desarrollo de tecnologías de IA que respeten los principios del desarrollo sostenible?

Eje 5: Tecnología, humanos y posthumanos

Ya sea a través de robots desencarnados (agentes conversacionales) o humanizados (NAO, SOPHIA, etc.) (Dolbeau-Bandin 2021; Dolbeau-Bandin y Wilhelm 2022), la IA permite mantener una conversación, gestionar tareas complejas o incluso disfrutar de nuevas experiencias en universos virtuales (metaversos). Estas interacciones (Rosental 2021) entre humanos y máquinas hacen coexistir varias visiones: la asimilación del ser humano a la máquina; cooperación; simbiosis (Brangier et al. 2009; De Rosnay 2018; Ertzscheid 2024); entrelazamiento que remite al ser humano a su relación con interfaces y dispositivos sociotécnicos (dispositivos portátiles y otros artefactos del Internet de las Cosas (IOT por su sigla en inglés) (Jeannin 2022), sensores de realidad virtual/aumentada (Bonfils 2015). Los límites entre lo orgánico y lo inorgánico, lo vivo y lo artificial se difuminan (Tisseron 2018). Aparte de las oportunidades, que son innegables, el análisis y el procesamiento de datos masivos facilitados por la IA (Boyd y Crawford 2012; Soudoplatoff 2018; Villani 2018), unidos a esta materialidad digital corporal no están exentos de efectos para los seres humanos. En este eje se puede explorar, por ejemplo: la cuestión de lo humano y lo posthumano en un contexto ideológico neoliberal/capitalista y tecnocientífico; el cuerpo en construcción (experimentación, modificación, virtualización, representaciones); el lugar y el estatus del cuerpo dentro de un sistema informacional expandido con los riesgos que conlleva, la comunicación con estos agentes conversacionales y con robots humanizados, etc.

Eje 6: Interculturalidad

Cuando se interroga a ChatGPT sobre la relación entre la IA y la interculturalidad, se destacan numerosos aportes: “facilita la traducción y la interpretación simultánea, personaliza el aprendizaje de lenguas y culturas, permite realizar simulaciones culturales, sus algoritmos analizan los sentimientos y las tendencias culturales en las redes sociales, también ayuda a la mediación en línea y a la prevención de conflictos interculturales, etc.”. La lógica dominante es la de una herramienta de ayuda a la comprensión, que puede crear la ilusión de una comunicación intercultural facilitada (Yang et al. 2024). Sin embargo, corremos el riesgo de empobrecer esta comunicación al sustituir las interacciones auténticas entre individuos por respuestas prefabricadas que limitan la riqueza de los intercambios humanos (Heddad 2024). En la era en la que la IA se desarrolla, es importante hacer un balance sobre las prácticas interculturales (Oustinoff 2019) y cuestionarse sobre qué contribuye o podría contribuir a enriquecer las interacciones interculturales (Dai y Hua 2024).

Eje 7: Implícitos e identidades

El implícito es un fundamento de las identidades colectivas (Roth 2022a), ya que permite transmitir los mensajes de invención de tradiciones que presiden la unificación de los Estadosnación (Hobsbawm y Ranger 1983), fortalecer la inclusión mediante el supuesto y la exclusión mediante el subentendido (Kerbrat-Orecchioni 1986), eludir la censura durante los cambios políticos autoritarios y, finalmente, naturalizar las identidades con el fin de hacerlas incontestables (Roth 2022b). En otras palabras, el implítico (supuesto y subentendido) es el soporte de las convicciones no cuestionadas y una herramienta de manipulación (Cervulle y Quemener 2012). Para la IA generativa, este soporte de mediaciones invisibles es esencial: dominarlo es uno de los principales desafíos planteados a las redes neuronales (noción de “sentido común”; Le Cun 2023), y su utilización por los poderosos GAMMA podría influir profundamente en las identidades, haciendo necesaria una vigilancia sociotécnica informada. Se espera que las ponencias propuestas en este eje se centren en todas las formas de contenidos implícitos en relación con la IA: su generación, interpretación y uso.

Eje 8: IA y bibliotecas

En este eje, estudiaremos cómo la profesión de bibliotecario se ve afectada por el auge de la inteligencia artificial generativa (IAG) respondiendo a tres objetivos específicos: (1) Calificar las transformaciones concretas del trabajo del bibliotecario debido al impacto de la IAG (Jacob et al. 2022). (2) Medir los factores que influyen en estos cambios y la repercusión en las condiciones laborales de los bibliotecarios. (3) Desarrollar la reflexión sobre las prácticas informacionales emergentes de los usuarios y las adaptaciones que pueden realizar los bibliotecarios (Chaudhry e Iqbal 2021; Guérin 2012).

Eje 9:

En este eje también se examinarán los retos que plantea el desarrollo de la comunicación digital a escala mundial, en relación con la preservación de la diversidad lingüística y cultural. En efecto, este desarrollo beneficia principalmente a las lenguas que ya se hablan ampliamente y contribuye sin duda a mantener su dominio, con el riesgo de glotofagia (Calvet 1974) que ello conlleva. Sin embargo, el desarrollo de la comunicación digital también permite que lenguas locales tradicionalmente confinadas a la oralidad se beneficien de una visibilidad y difusión inesperadas para sus hablantes, siempre y cuando los recursos y las herramientas de tratamiento automático se adapten a las características de estas lenguas (Bernhard et al. 2021). ¿En qué medida las máquinas pueden convertirse en factores de revitalización de las lenguas y las culturas? (Krebs 2024)

Eje 10: IA y sesgos en el lenguaje y la comunicación

Los textos creados por la IA generativa se basan en grandes modelos lingüísticos (LLM) cuya fuente no se conoce ni se verifica. Estos modelos no tienen en cuenta aspectos como la feminización de los nombres de las profesiones, los aspectos no binarios del género o la escritura inclusiva y tienden a reproducir los mismos estereotipos (Bernheom et al. 2019), ya que la gran mayoría de los textos que se emplean para entrenar los modelos favorecen el masculino genérico. Muchos de los datos utilizados para el entrenamiento provienen de la traducción a otro idioma de textos en inglés. El objetivo de este eje es, por tanto, estudiar el habla artificial generada por la IA, las posibles alucinaciones (Park y Lee 2024) y proponer soluciones de remediación. Además, la forma en que los seres humanos se comunican se ha visto profundamente alterada: ahora la comunicación escrita puede ser espontánea e inmediata y, gracias a la IA, basta una conexión a Internet para traducir un texto de un idioma a otro. Pero no todos los seres humanos, las lenguas que hablan o las culturas a las que pertenecen tienen igual acceso a los recursos y herramientas digitales que necesitan para ello, por lo que esas herramientas digitales se han convertido en un factor determinante de potenciación o marginación de los idiomas y las culturas del mundo.

Para todos los ejes temáticos: las propuestas deberán integrar las dimensiones de “ética”, “inclusión” y/o “remediación”; se redactarán en francés o en inglés y deberán tener aproximadamente 4000 caracteres, además de 10 referencias bibliográficas (norma APA7). La selección se llevará a cabo según las normas científicas habituales de revisión por pares a doble ciego. Las ponencias pueden presentarse en francés o inglés, y los artículos en francés, inglés o español.

Comité Científico

Abdallah May, Université libanaise, Beyrouth, Liban

Amadio Nicolas, Université de Strasbourg, France

Aoudia Nacer, Université de Béjaia, Algérie

Akhiate Yassine, Université Mohammed V, Rabat, Maroc

Azemard Ghislaine, Université Paris 8, France

Béasse Muriel, Université de Haute-Alsace, France

Bendahan Mohamed, Université Mohammed V, Rabat, Maroc

Brassier Cécilia, Université de Clermont Auvergne, France

Chaouni Nawel, Université de Toulouse, France

Chiachiri Roberto, Methodist University of Sao Paolo. Brésil

Chevry Pébayle Emmanuelle, Université de Strasbourg, France

Commissaire Eva, Université de Strasbourg, France

Damome Etienne, Université de Bordeaux-Montaigne, France

D’Apote-Vassiliadou Hélène, Université de Strasbourg, France

Djengue Samuel, Université Abomey-Calavi, Bénin

Dolbeau-Bandin Cécile, Université de Caen Normandie, France

Dragan Adela, Université Danarea de Jos, Galati, Roumanie

El Khoury Farhat, Université de Strasbourg, France

El Mendili Soumaya, Université Mohammed V, Rabat, Maroc

Erhart Pascale, Université de Strasbourg, France

Faisal Bakti Andi, Islamic University, Jakarta, Indonésie

Fusaro Magda, Université de Québec à Montréal, Canada

Gardère Elizabeth, Université de Bordeaux, France

Geiger-Jaillet Anémone, Université de Strasbourg, France

Guerrero Manuel Alejandro, Universidad ibero-americana, Mexico, Mexique

Hellal Mohamed, Université de Sousse, Tunisie

Hounnou Cédric, Université de la Côte d’Azur, France

Jeannin Hélène, Université de Strasbourg, France

Jreijery Roy, Université libanaise, Liban

Kabore Dimkêeg Sompassaté Parfait, Université Thomas Sankara, Burkina-Fasso

Krebs Viola, Université de Genève, Suisse

Liu Lu, Université de Clermont Auvergne, France

Merah Aissa, Université de Béjaia, Algérie

Olmedo Eric, Ho Chi Minh City University, Vietnam

Picot Jérémy, Université de Strasbourg, France

Puica Gisela, Université Suceava, Roumanie

Rico De Stoledo Carmen, Université du Québec à Montréal, Canada

Roth Catherine, Université de Haute-Alsace et INRIA, France

Salles Chloé, Université de Grenoble-Alpes, France

Serrano Yeny, Université de Strasbourg, France

Tendeng Frédéric, Université de Strasbourg, France

Todirascu Amalia, Université de Strasbourg, France

Trestini Marc, Université de Strasbourg, France

Viallon Philippe, Université de Strasbourg, France

Zerva Maria, Université de Strasbourg, France

Comité Organizador

Universidad de Estrasburgo: Cátedra UNESCO “Prácticas periodísticas y mediáticas”, ITI LiRiC(Lenguaje, Inclusión, Remediación Interculturalidad y Comunicación), IUT Robert Schuman, Departamento de Información y Comunicación, Centro de Cultura Digital...

Universidad de Caen Normandie: CERREV

Universidad de Clermont Auvergne: Laboratorio de Comunicación y Sociedades.

Personas conectadas : 2 Privacidad
Cargando...