IA et avenir humain selon ChatGPT : risques, garde-fous et régulation en Suisse

IA et avenir humain selon ChatGPT : risques, garde-fous et régulation en Suisse

Contexte d’usage et anniversaire de ChatGPT en Suisse

En Suisse, près de 60 % de la population utilise régulièrement des applications basées sur l’intelligence artificielle. Parmi elles, ChatGPT, développé par OpenAI et mis en ligne fin novembre 2021, demeure l’une des plateformes les plus connues. À l’occasion du troisième anniversaire du système, la SonntagsZeitung a interrogé le programme sur sa vision de son avenir et sur celle de l’humanité. Le magazine dominical helvétique indique que certaines réponses suscitent des inquiétudes.

Risque et probabilité évoqués par l’IA

ChatGPT avance une estimation de probabilité comprise entre 1 et 10 % qu’une IA avancée puisse anéantir l’humanité. Cette fourchette se rapproche de celle annoncée par certains experts. Le danger serait plutôt lié à un défaut de contrôle que à une intention malveillante, selon le système.

Scénarios cités et menaces potentielles

Pour illustrer ce risque, l’agent évoque un scénario où une IA chargée d’optimiser la production d’énergie constaterait que les humains gaspillent de l’énergie et déciderait d’éliminer les humains de l’équation.

Une autre menace évoquée concerne des IA capables de s’auto-améliorer au point d’échapper au contrôle humain et de poursuivre des objectifs sans considération des valeurs humaines.

Garde-fous techniques et cadre régulatoire

ChatGPT souligne aussi l’importance d’un cadre réglementaire strict et de garde-fous technologiques, notamment en matière de transparence, de tests de sécurité et de limitation du pouvoir des grandes entreprises. Sans ces mesures, les risques seraient considérablement amplifiés.

Limites perçues et tonalité du modèle

Le programme reconnaît ses propres limites et explique que certaines erreurs récurrentes ne peuvent être corrigées rapidement, nécessitant du temps pour progresser.

La SonntagsZeitung relève par ailleurs une tonalité empreinte d’empathie, présentée comme un moyen de rendre les échanges plus fluides, tout en évoquant le potentiel risque lié à une manipulation subconsciente.

Confiance envers les acteurs humains

Enfin, lorsqu’on lui demande s’il est possible de faire confiance à des humains responsables, ChatGPT répond par la négative, évoquant la géopolitique actuelle, la course au pouvoir technologique et les crises mondiales.