Objectifs du congrès

Le Congrès Orbicom - GTnum - ITI LiRic CIAREI pour « Communication, intelligence artificielle, remédiation, éthique et inclusion » a pour objectif de faire le point sur les opportunités et les risques liés au développement de l’intelligence artificielle générative (IA) dans la communication, notamment avec une perspective d’usage éthique et d’inclusion ainsi que de remédiation aux problèmes sociétaux.

Si l’IA sous ses différentes formes est développée par les informaticiens depuis les années 1950, et utilisée dans l’industrie depuis plusieurs décennies, sa diffusion a radicalement changé d’échelle en 2022 avec l’arrivée de ChatGPT, qui met à disposition de chacun des capacités nouvelles et exceptionnelles (Byk 2023) de rédaction de textes, de production d’images et, de manière générale, de gestion complexe de grandes quantités de données. De nombreux concurrents sont depuis arrivés sur le marché et le secteur est en pleine expansion grâce aux investissements des GAMMA (Google, Apple, Meta, Microsoft, Amazon) et des BATX chinois (Baidu, Alibaba, Tencent et Xiaomi). Dans la plupart des branches professionnelles et des domaines de la vie sociale se pose la question des rapports entre l’homme et la machine et des nouvelles modalités qui vont se mettre en place. Pardelà les prophéties qui annoncent la fin de l’humanité (Lavazza et Vilaça 2024) ou à l’inverse un monde radieux grâce à la technologie (Bittencourt et al. 2023), c’est le rôle des sciences humaines et sociales de questionner les conséquences de l’implantation de l’IA dans nos sociétés. Les questions soulevées par le colloque sont transversales et concernent l’éthique comme cadre impératif de l’usage des systèmes d’IA ainsi que deux finalités qui sont la remédiation, c’est-à-dire la capacité à proposer des solutions à des problèmes individuels ou collectifs (Duru-Bellat 2009 ; Rose 2002) et l’inclusion visant à construire des environnements ouverts et accessibles valorisant la diversité et favorisant l’équité (Sen 2000 ; Tisseron et Tordo 2022). Les chercheurs et les chercheuses devront s’inscrire dans un de ces axes.

Dates importantes

  • Date limite de soumission des propositions : 15 janvier 2025
  • Retour avec avis du comité scientifique : 1 mars 2025
  • Envoi des textes complets : 1 mai 2025
  • Retour avec avis du comité scientifique 15 juin 2025
  • Envoi des textes définitifs : 1 juillet 2025

Dates du colloque : 29, 30 septembre et 1 octobre 2025

Lieux du colloque : Strasbourg (France), : Maison des sciences de l’Homme d’Alsace (Misha) et Parlement européen

Prix pour les 3 jours : 190 € comprenant les pauses, les repas et le programme culturel. Demi-tarif pour les doctorant.es. Les membres de l’Unistra et ceux des chaires UNESCO sont dispensés des frais.

Adresse de contact : chaireunesco@iutrs.unistra.fr

Axes de soumission pour le congrès

Axe 1 : Communication, IA et Éthique en éducation

Le développement rapide de l'intelligence artificielle (IA) modifie profondément nos sociétés, influençant divers secteurs, y compris la communication et l’éducation. Dans ce contexte, la synergie entre ces domaines devient cruciale pour comprendre et exploiter les potentialités offertes par l’IA. L’axe 1 de ce colloque vise à explorer comment l’IA peut transformer la communication et l’éducation, et inversement, comment les approches communicationnelles et éducatives peuvent à leur tour influencer le développement et l’adoption de l’IA à la fois par les établissements scolaires mais aussi les élèves et étudiant-e-s. Depuis 2022 au moins, l’éthique de l’IA (Zacklad et Rouvroy 2022) est à la fois convoquée par tout un chacun comme une mode langagière, mais également un 2 sujet qui devient vif pour la recherche, notamment pour ce qui concerne les usages de l’IA en éducation (Holmes et al. 2021) et par exemple dans le cas de personnes en situation de handicap (Neuralink, Seeing AI,…). Il n’y a pas une éthique de l’IA et les questions qu’elle pose sont investies par diverses disciplines : sciences de l’information et de la communication, sciences de l’éducation, informatique, droit, philosophie, psychologie, etc.

Axe 2 : Communication politique et des organisations

Outre l’enjeu de la protection des données personnelles, ces dernières sont des ressources nécessaires à la communication publique et politique, autant lors des campagnes électorales qu’en période de gouvernance. Les institutions, les acteurs politiques, les médias et les citoyens peuvent recourir à cette ressource, couplée ou non avec l’IA, pour promouvoir leurs intérêts et leurs messages. Mais des risques sont inhérents à la protection des données et au respect des règles démocratiques (Portnoff et Soupizet 2018). Les avancées en intelligence artificielle mènent à des réalisations comme la reconnaissance de personnes sur des images, la création automatique de contenus, l’analyse sémantique, etc., tout en exacerbant des craintes relatives à l’asservissement de l’humain par la machine, la manipulation des comportements, la surveillance de masse, etc. (Villani et al. 2018). Cet axe du congrès questionne divers points : comment l’IA impacte-elle la géopolitique et les stratégies des politiques publiques ? Quels sont les pouvoirs et contre-pouvoirs de l’IA dans la gouvernance et l’aide à la décision (Conseil d’État 2022) ? Comment s’appliquent la protection des données et le principe de vérité, les questions d’éthique et de déontologie ? Entre média et individu citoyen, quel est le rôle de l’IA dans les réseaux d’influence (Ronzaud et Ruan 2022) ? Comment construire la confiance et servir la performance dans l’action publique ?

Axe 3 : Médias/journalisme Le journalisme au défi de l’intelligence artificielle

L’IA est-elle un atout sans risque pour les journalistes et, dans l’absolu, pour le journalisme ? L’arrivée de l’IA dans les rédactions d’information n’est-elle qu’une ultime évolution dans un système qui a toujours été très évolutif (Béasse et Viallon 2023) ? En se plaçant du point de vue des professionnels de l’information comme des publics, peut-on envisager un modelage mutuel et équilibré dans la relation journaliste-technologie qui s’appuie sur la dimension sociale spécifique de l’activité journalistique ? Les contributions attendues pour cet axe porteront sur les applications concrètes de l’IA dans les pratiques journalistiques (Saint-Germain et White 2023) comme sur leurs impacts sur les journalistes et leurs publics. Il s’agira notamment de dresser un état des lieux critique des perspectives de l’IA dans le journalisme au regard des enjeux existentiels que connaît actuellement cette activité.

Axe 4 : Communication environnementale

Il s’agit d’interroger les défis éthiques et les opportunités de l’IA pour la communication environnementale. Elle est devenue un enjeu sociétal majeur qui nécessite une approche globale et transversale (Libaert 2016). Le recours à l’IA doit d’autant plus permettre de s’interroger sur les risques de "biais éthiques" liés aux données utilisées pour entraîner les algorithmes (Domenget et al. 2022), que les sujets environnementaux sont particulièrement susceptibles de donner lieu à des discours iconiques et linguistiques qui peuvent créer un imaginaire déformé (Fodor, 2011). Du point de vue des technologies à l’oeuvre, « l’empreinte environnementale de l’IA générative, notamment en termes d’émissions de gaz à effet de serre et de consommation d'eau, reste considérable » (Le Goff 2023), nécessitant ainsi une réflexion sur le développement des solutions d’IA durables et respectueuses de l’environnement, mais aussi sur une utilisation éthique, responsable et durable de ces outils. Les questions auxquelles tenteront de répondre les intervenant.es seront, entre autres : comment s'assurer que les données traitées par l'IA représentent fidèlement la réalité environnementale, sans exagération ni déformation ? Quels types de biais peuvent apparaître dans le traitement des données environnementales, et comment ces biais influencent-ils la perception des 3 enjeux écologiques ? Dans quelle mesure l’IA contribue-t-elle à façonner un imaginaire environnemental qui pourrait éloigner le public de la réalité scientifique ? Comment utiliser l’IA pour renforcer une communication responsable et éviter les effets de sensationnalisme ou de manipulation dans les discours sur l’environnement ? Quels sont les impacts environnementaux directs de l’utilisation de l’IA en communication environnementale, et comment les mesurer ? Quels cadres éthiques ou normatifs pourraient être adoptés pour guider le développement de technologies d’IA qui respectent les principes du développement durable ?

Axe 5 : Technologie, humains et post-humains

Que ce soit via des robots désincarnés (agents conversationnels) ou incarnés (NAO, SOPHIA…) (Dolbeau-Bandin 2021 ; Dolbeau-Bandin et Wilhelm 2022) l’IA permet d’avoir une conversation, de gérer des tâches complexes voire de vivre de nouvelles expériences dans des univers virtuels (métavers)… Ces mises en rapport (Rosental 2021) entre des humains et des machines font coexister plusieurs visions : assimilation de l’homme à la machine ; coopération ; symbiose (Brangier et al. 2009 ; De Rosnay 2018 ; Ertzscheid 2024) ; enchevêtrement renvoyant l’humain à ses rapports aux interfaces et aux dispositifs sociotechniques (wearable devices et autres artefacts de l’Internet des Objets (IOT) (Jeannin 2022), capteurs de réalité virtuelle/augmentée (Bonfils 2015). Les frontières entre l’organique et l’inorganique, le vivant et l’artificiel se brouillent (Tisseron 2018). En dehors des opportunités, certes indéniables, l’analyse et le traitement des données massives facilités par l’IA (Boyd et Crawford 2012 ; Soudoplatoff 2018 ; Villani 2018) et couplés avec cette matérialité numérique corporelle ne sont pas sans effets pour les humains. Plusieurs pistes peuvent être explorées, par exemple : la question de l’humain et du post-humain en contexte idéologique néolibéral/capitalistique et technoscientifique ; le corps en devenir (expérimentations, modifications, virtualisation, représentations) ; la place et le statut du corps au sein d’un système informationnel élargi avec ses risques afférents, la communication avec ces agents conversationnels désincarnés et ces robots incarnés…

Axe 6 : Interculturalité

Lorsque l’on interroge ChatGPT sur le lien entre l’IA et l’interculturel, de nombreux apports sont mis en avant : « elle facilite la traduction et l’interprétation simultanée, elle personnalise l’apprentissage des langues et des cultures, elle permet des simulations culturelles, ses algorithmes analysent les sentiments et tendances culturelles sur les réseaux sociaux, elle aide également à la médiation en ligne et à la prévention des conflits interculturels, etc. ». Une logique d’outil d’aide à la compréhension prévaut, qui peut créer l’illusion d’une communication interculturelle plus facile (Yang et al. 2024). On court pourtant le risque d’appauvrir cette communication en remplaçant les interactions authentiques entre les individus par des réponses toutes faites qui limitent la richesse des échanges humains (Heddad 2024). A l’heure où l’IA se développe, il est important de faire le point sur les pratiques en lien avec l’interculturel (Oustinoff 2019) et de s’interroger sur la manière dont elle contribue ou pourrait contribuer à l’enrichissement des interactions interculturelles (Dai et Hua 2024).

Axe 7 : Implicite et identités

L’implicite est un fondement des identités collectives (Roth 2022a). Il permet de faire passer les messages d’invention de tradition qui président aux unifications des États-nations (Hobsbawm et Ranger 1983), de renforcer l’inclusion par le présupposé et l’exclusion par le sous-entendu (Kerbrat-Orecchioni 1986), de contourner la censure lors des mutations politiques autoritaires, et enfin de naturaliser les identités aux fins de les rendre incontestables (Roth 2022b), en d’autres termes, c’est le support des convictions non questionnées et l’outil des manipulations (Cervulle et Quemener 2012). Pour les IA génératives, ce support de médiations invisibles est essentiel : sa maîtrise est un des principaux défis posés aux réseaux neuronaux (notion de « sens commun » ; Le 4 Cun 2023), et son usage par les puissants GAMMA pourrait influencer profondément les identités, rendant nécessaire une vigilance sociotechnique éclairée. Les contributions attendues concernent toutes les formes de non-dits en lien avec l’IA : leur génération, leur interprétation, et leur utilisation.

Axe 8 : IA et bibliothèques

Nous nous demanderons, dans l’axe 8, comment le métier de bibliothécaire est impacté par l’essor de l’intelligence artificielle générative (IAG). Cet axe poursuit plus spécifiquement trois objectifs : (1) Qualifier les transformations concrètes du travail de bibliothécaire sous l’effet de l'IAG (Jacob et al. 2022). (2) Mesurer les facteurs influençant ces transformations ainsi que leur impact sur les conditions de travail des bibliothécaires. (3) développer la réflexion à propos des pratiques informationnelles émergentes des usagers et les adaptations que les bibliothécaires peuvent apporter (Chaudhry et Iqbal 2021 ; Guérin 2012).

Axe 9 : Préservation de la diversité linguistique et culturelle

Dans cet axe il s’agira d’interroger les enjeux du développement de la communication numérique à l’échelle mondiale, en lien avec la question chère à l’UNESCO de la préservation de la diversité linguistique et culturelle. En effet, ce développement profite surtout à des langues qui sont déjà largement répandues et contribue sans doute à maintenir leur domination, avec le risque de glottophagie (Calvet 1974) que cette dernière comporte, mais le développement de la communication numérique permet aussi à des langues qui étaient traditionnellement confinées dans l’oralité locale de bénéficier d’une visibilité et d’une diffusion inespérées pour leurs locuteurs, à condition d’adapter les ressources et outils de traitement automatiques aux caractéristiques de ces langues (Bernhard et al. 2021). Dans quelle mesure les machines peuvent-elles devenir des facteurs de revitalisation des langues et des cultures (Krebs 2024) ?

Axe 10 : IA et biais dans le langage et la communication

Les textes crées par l’IA générative s’appuient sur des grands modèles de langues (LLM) dont la source n’est pas connue ni vérifiée. Ces modèles ne prennent pas en compte des aspects comme la féminisation de noms de métiers, des aspects non-binaires du genre ou l’écriture inclusive etc. La communication tend à reproduire les mêmes stéréotypes (Bernheom et al. 2019), car la grande majorité des textes utilisés pour l’entraînement privilégient le masculin générique. Beaucoup de données utilisées pour l’entrainement de données sont issues de la traduction de textes de l’anglais vers une autre langue. Il s’agit donc d’étudier les discours artificiels générés par l’IA, d’étudier les éventuelles hallucinations (Park et Lee 2024) et de proposer des solutions de remédiation. Par ailleurs, la manière dont les humains communiquent a été profondément modifiée : la communication écrite peut désormais être spontanée et immédiate, et grâce à l’IA, une connexion à Internet peut suffire pour traduire un texte d’une langue à une autre. Mais tous les humains, les langues qu’ils parlent et les cultures auxquelles ils appartiennent, ne sont pas égaux dans l’accès aux ressources et outils numériques nécessaires pour cela, de sorte que ces derniers sont devenus un facteur déterminant dans les rapports de majoration ou de minoration existant entre les langues et les cultures dans le monde.

Pour tous les axes, les propositions devront intégrer les dimensions « éthique », « inclusion » et/ou « remédiation ». Elles devront indiquer l’axe ou les axes de rattachement. Elles seront rédigées en français ou en anglais et devront comporter environ 4000 signes avec la problématique, la question de recherche et les hypothèses, plus 10 références bibliographiques selon la norme APA7. La sélection se fera selon les normes scientifiques habituelles de lecture en double aveugle. Les interventions pourront être en français ou en anglais, les articles en français, anglais ou espagnol.

Comité scientifique

Abdallah May, Université libanaise, Beyrouth, Liban

Amadio Nicolas, Université de Strasbourg, France

Aoudia Nacer, Université de Béjaia, Algérie

Akhiate Yassine, Université Mohammed V, Rabat, Maroc

Azemard Ghislaine, Université Paris 8, France

Béasse Muriel, Université de Haute-Alsace, France

Bendahan Mohamed, Université Mohammed V, Rabat, Maroc

Brassier Cécilia, Université de Clermont Auvergne, France

Chaouni Nawel, Université de Toulouse, France

Chiachiri Roberto, Methodist University of Sao Paolo. Brésil

Chevry Pébayle Emmanuelle, Université de Strasbourg, France

Commissaire Eva, Université de Strasbourg, France

Damome Etienne, Université de Bordeaux-Montaigne, France

D’Apote-Vassiliadou Hélène, Université de Strasbourg, France

Djengue Samuel, Université Abomey-Calavi, Bénin

Dolbeau-Bandin Cécile, Université de Caen Normandie, France

Dragan Adela, Université Danarea de Jos, Galati, Roumanie

El Khoury Farhat, Université de Strasbourg, France

El Mendili Soumaya, Université Mohammed V, Rabat, Maroc

Erhart Pascale, Université de Strasbourg, France

Faisal Bakti Andi, Islamic University, Jakarta, Indonésie

Fusaro Magda, Université de Québec à Montréal, Canada

Gardère Elizabeth, Université de Bordeaux, France

Geiger-Jaillet Anémone, Université de Strasbourg, France

Guerrero Manuel Alejandro, Universidad ibero-americana, Mexico, Mexique

Hellal Mohamed, Université de Sousse, Tunisie

Hounnou Cédric, Université de la Côte d’Azur, France

Jeannin Hélène, Université de Strasbourg, France

Jreijery Roy, Université libanaise, Liban

Kabore Dimkêeg Sompassaté Parfait, Université Thomas Sankara, Burkina-Fasso

Krebs Viola, Université de Genève, Suisse

Liu Lu, Université de Clermont Auvergne, France

Merah Aissa, Université de Béjaia, Algérie

Olmedo Eric, Ho Chi Minh City University, Vietnam

Picot Jérémy, Université de Strasbourg, France

Puica Gisela, Université Suceava, Roumanie

Rico De Stoledo Carmen, Université du Québec à Montréal, Canada

Roth Catherine, Université de Haute-Alsace et INRIA, France

Salles Chloé, Université de Grenoble-Alpes, France

Serrano Yeny, Université de Strasbourg, France

Tendeng Frédéric, Université de Strasbourg, France

Todirascu Amalia, Université de Strasbourg, France

Trestini Marc, Université de Strasbourg, France

Viallon Philippe, Université de Strasbourg, France

Zerva Maria, Université de Strasbourg, France

Comité d'organisation

Université de Strasbourg : Chaire Unesco « Pratiques journalistiques et médiatiques », ITI LiRiC (Language, Inclusion, Remediation Interculturality and Communication), IUT Robert Schuman, Département Information-Communication, Centre de culture numérique, Cellule Congrès,…

Université de Caen Normandie : CERREV

Université de Clermont Auvergne : Laboratoire Communication et Sociétés.

Personnes connectées : 2 Vie privée
Chargement...