You are currently viewing L’IA générative, une menace pour l’ordre social ?

L’IA générative, une menace pour l’ordre social ?

NTT et Yomiuri tirent la sonnette d’alarme

Selon deux géants japonais, l’IA générative serait une menace pour l’ordre social. Nippon Telegraph and Telephone (NTT), le leader des télécoms au Japon, et Yomiuri Shimbun, le plus grand quotidien du pays, ont publié une déclaration commune. Ils y mettent en garde contre les dangers de l’intelligence artificielle (IA) générative. Ils estiment que sans contrôle, cette technologie pourrait mener à “l’effondrement de la démocratie et de l’ordre social, entraînant des guerres”.

Les deux entreprises ont mené une étude conjointe sur la gouvernance idéale pour l’IA générative depuis l’automne 2023. Leur proposition commune est intitulée “Joint Proposal on Shaping Generative AI”. Elle souligne à la fois les avantages et les risques de cette technologie.

Des interfaces conviviales mais des résultats pas toujours fiables

L’IA générative offre des interfaces et des expériences conviviales. Opérable en langage naturel, elle est accessible au plus grand nombre sans nécessiter de connaissances en programmation. De plus, elle présente ses résultats sous des formes facilement compréhensibles comme le langage naturel.

Cependant, l’exactitude des résultats générés par l’IA ne peut être totalement garantie à l’heure actuelle. C’est là que réside le principal danger selon NTT et Yomiuri. En effet, les modèles d’IA génèrent parfois des résultats inexacts ou trompeurs, mais avec une grande assurance. Les humains se laissent alors facilement berner.

Première menace pour l’ordre social : Une atteinte à l’autonomie et à la dignité des individus

De plus, un autre problème soulevé est celui de “l’économie de l’attention”. Certains systèmes d’IA sont conçus pour capter l’attention des utilisateurs, au détriment de la morale et de la dignité humaine. Cela porte atteinte à l’autonomie et à la liberté des individus, valeurs essentielles d’une société libre.

NTT et Yomiuri craignent que la nature instable de l’IA générative n’amplifie encore ces problèmes. C’est pourquoi, ils appellent à rétablir rapidement ces valeurs, en trouvant un équilibre optimal basé sur la liberté et la dignité humaines.

Une menace pour l’ordre social du point de vue des élections et de la sécurité nationale

Les deux entreprises s’inquiètent particulièrement de l’impact de l’IA générative sur le discours public et les élections. Elles appellent à des restrictions fortes dans ces domaines ainsi que pour la sécurité nationale. Sans régulation, la diffusion d’informations malveillantes pourrait provoquer des troubles sociaux majeurs.

Dans le domaine de l’éducation des mesures prudentes s’imposent également. Cela concerne en particulier les plus jeunes, dont la capacité de discernement n’est pas mature. Ces mesures doivent être prises en pesant avantages et inconvénients de l’usage de l’IA.

Adapter le droit d’auteur et introduire des mesures technologiques

La protection de la propriété intellectuelle, en particulier le droit d’auteur, doit aussi être adaptée à l’ère de l’IA générative. L’objectif est de maintenir les incitations à fournir et diffuser une information de qualité, sans pour autant entraver excessivement le développement et l’utilisation de l’IA.
Des solutions technologiques comme le “Profil de l’Originateur” (OP) sont aussi nécessaires. Ces solutions doivent compléter des lois pour sécuriser les espaces de discussion où la liberté et la dignité humaines sont préservées.

Mettre en place une gouvernance efficace, y compris législative

Le Japon accuse un certain retard par rapport à l’Union Européenne en termes de politique stratégique et systématique sur les données et l’IA. NTT et Yomiuri appellent à développer rapidement des régulations individuelles et des mesures efficaces pour faire face aux problèmes liés à l’IA et à l’économie de l’attention.

Toutefois, cette législation prendra du temps. En attendant, ils préconisent de renforcer l’encadrement de l’IA par des “lois souples” (soft laws) impliquant les parties prenantes. Une approche agile de la gouvernance est recommandée. Elle s’impose au vu de la rapidité de l’innovation technologique et de la complexité des chaînes de valeur.

Des “lois dures” (hard laws) contraignantes doivent cependant être introduites sans hésiter dans les domaines à risque comme les élections et la sécurité. Le système doit protéger efficacement la liberté et la dignité des citoyens, ainsi que les intérêts nationaux comme l’industrie.

Assurer un écosystème d’IA diversifié et équilibré

Pour garantir des espaces de discussion sains, il est nécessaire d’avoir une diversité d’IA de rangs équivalents qui se contrôlent mutuellement. Les utilisateurs doivent pouvoir s’y référer de manière autonome sans dépendre d’une IA spécifique. Cela doit être promu à la fois sur le plan institutionnel et technologique.

L’avenir de l’IA générative : entre contrôle et utilisation pour limiter la menace de l’ordre social

L’IA générative est une technologie que l’humanité ne peut pas totalement contrôler, mais qui entre dans une phase d’innovation avec une diffusion sociale croissante. Des mesures pour assurer des espaces de discussion sains, fondement de la sécurité humaine et sociale, doivent être prises immédiatement.

En parallèle de l’optimisation du droit d’auteur, une combinaison de règles sectorielles, de technologies efficaces et d’efforts de révision de la loi est nécessaire. L’essentiel est de protéger la dignité et la liberté des individus pour permettre leur autonomie, en tenant compte des évaluations critiques basées sur les valeurs de la communauté.

NTT et Yomiuri partagent cette compréhension des enjeux. Les deux entités à étudier la question et à faire des recommandations, avec le soutien du Cyber Civilization Research Center de l’Université Keio.

En conclusion, cet appel de deux poids lourds japonais souligne l’urgence de trouver un équilibre entre le contrôle et l’utilisation de l’IA générative. C’est à cette condition que les fondements de nos sociétés démocratiques pourront être protéges. Un défi majeur pour tous les pays à l’ère de l’IA.

Laisser un commentaire