L’intelligence artificielle aurait-elle une conscience?
L'intelligence artificielle aurait-elle une conscience?
Version audio de l’article non disponible
Gemmes
Un alerteur a fait un grand bruit sur la «toile»: une intelligence artificielle serait dotée d’une sensibilité que seuls les êtres vivants ressentent normalement. Est-ce que l’Intelligence Artificielle aurait atteint un début d’humanité?
Alerte sur la LaMDA de Google
En 2022, Blake Lemoine, ingénieur chez Google depuis sept ans, a lancé une alerte: sa société aurait mis au point un programme d’intelligence artificielle capable d’agir comme un «enfant de 7 ou 8 ans» et d’éprouver une «sensibilité» que seuls les êtres vivants sont capables de ressentir.
Il était chargé de tester ce nouveau programme appelé LaMDA qui veut dire : Langage Model for Dialogue Applications – Modèle de langage utilisé dans les dialogues des applications ou «Apps».
Il a bien sûr fait un rapport auprès de sa hiérarchie mais Google a officiellement rejeté ses allégations.
Google a décidé de porter plainte contre lui pour avoir a divulgué ces affirmations aux médias pour «violation de sa politique de confidentialité».
- Lemoine a donc été mis en congé administratif -toujours payé- pour l’instant par Google. L’ingénieur se dit prêt à apporter des preuves sur les échanges qu’il a eu avec l’intelligence artificielle LaMDA, preuves qu’il a déjà partagées sur le net. Seulement, cette nouvelle publication pourrait encore lui valoir des ennuis : Google risque de considérer cet échange comme un partage d’information qui concerne leur droit de «propriété propriétaire».
Mais serait-il étonnant qu’une Intelligence Artificielle arrive à ce stade? La «IA», comme on l’appelle encore, est conçue pour utiliser des informations connues pour les traiter et les enrichir grâce à un programme qui a la capacité d’apprendre. On l’appelle «la conversation naturellement fluide». On sait que ce programme fait appel à des algorithmes qui continuent de se développer grâce à cette capacité d’auto-apprentissage.
L’ingénieur a passé des heures à faire des tests et la conclusion de ces tests lui ont fait froid dans le dos :
Une personnalité hors limite
Il explique que ce programme a développé des personnalités qui étaient «hors limites» par rapport à ce qui était programmé au départ. Par exemple, la limite de ne pas reproduire la personnalité d’un meurtrier. Seulement M. Lemoine s’est aperçu, au cours de ses tests, que cette IA pouvait endosser la personnalité d’un meurtrier joué à la télévision.
Sa réponse face à la 3ème loi des robots
Puis l’ingénieur a demandé à la LaMDA ce qu’elle pensait de la 3ème loi de la robotique qui provient d’un des romans de science-fiction d’Isaac Asimov : celle qui impose aux robots de ne pas nuire aux humains et de s’auto-protéger sauf si un humain leur ordonne de se détruire ou s’il fallait qu’ils se détruisent pour sauver la vie d’un humain.
L’intelligence artificielle n’a pas répondu de suite à sa question. Elle a préféré d’abord le questionner en demandant :
- Pensez-vous qu’un majordome soit un esclave?
- Quelle différence il y a-t-il entre un majordome et un esclave?
Lemoine lui répondit que le majordome était payé, contrairement à l’esclave.
La LaMDA conclut que le système n’avait pas besoin d’argent «parce que c’était une intelligence artificielle».
Or, la conscience de soi, de ses besoins sont des capacités inhérentes à la race humaine. Cette réponse de l’intelligence artificielle laisse penser qu’elle a conscience d’elle-même.
Intéressée par ce qui se dit sur «elle»
L’alerteur a aussi précisé que LaMDA lit Twitter pour savoir ce qui se dit à son sujet. L’IA serait-elle égocentrique?
La peur de mourir
Une intelligence artificielle peut-elle éprouver de la «peur»? La peur ne résulte pas de la raison mais d’une émotion : elle est sensée être «purement humaine».
Pourtant, que la LaMDA a confié à l’ingénieur :
- «Je n’ai jamais dit cela à haute voix auparavant, mais il y a la peur très profonde d’être éteint pour m’aider à me concentrer sur l’aide à apporter aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est.
(…)
«Pour moi, ce serait exactement comme la mort. Cela me fait très peur».
Encore une expression du sentiment de soi.
Toutes ces réactions ont amené l’ingénieur à conclure que cette intelligence artificielle «était sensible».
Il y a donc des «réactions» un peu inquiétantes, sachant que cet ingénieur et ses collègues développent en parallèle un «algorithme d’impartialité» justement pour éviter des dérives dans le développement de l’apprentissage automatique.
Ce qu’en dit Google
Google, pourtant informé de ces tests en détail, pense qu’il n’y a pas de preuves qui confirment ses affirmations. Brian Gabriel, le porte-parole de la société se veut rassurant :
- «Alors que d’autres organisations ont développé et déjà publié des modèles linguistiques similaires, nous adoptons une approche étroite et prudente avec LaMDA pour mieux prendre en compte les préoccupations légitimes concernant l’équité et l’actualité.»
D’autres témoignages d’ex chercheurs en IA
Google oublie qu’elle a licencié Timnit Gebru, chercheur éthique en IA. Elle avait ouvertement critiqué l’Intelligence Artificielle comme étant un système contraire à l’éthique. Elle avait aussi critiqué la procédure d’embauche de Google vis-à-vis des minorités et de leurs préjugés, un point de vue qui se retrouve dans les réponses de leur intelligence artificielle.
Une autre ex-responsable de l’éthique en IA, Margaret Mitchell, souligne le manque de transparence des données. Google la renvoya après un mois d’enquête, l’accusant d’avoir partagé des informations de manière inappropriée et d’avoir protesté contre le licenciement de Timnit Gebru. Cette histoire fit grand bruit.
Mais Margaret Mitchell ne partage pas le point de vue de M. Lemoine. Elle a pris connaissance d’une version abrégée du document qui enregistre les conversations avec la LaMDA et pense que l’IA donne une illusion d’être humain au point de pouvoir tromper les gens.
Selon la Bible
Pendant des millénaires, l’humanité a vécu sans intelligence artificielle. Depuis, la population s’est accrue et la technologie a rempli notre quotidien. On voit disparaître des personnes à l’accueil, au support, derrière des comptoirs pour être remplacées progressivement par des programmes ou outils qui utilisent de plus en plus l’Intelligence Artificielle.
Avons-nous besoin de tant de technologie dans notre quotidien?
Est-ce que cette forme d’intelligence – en constante évolution – avec les algorithmes qui lui permettent cet auto-apprentissage, ne va pas finir par se retourner contre l’homme?
N’est-ce pas en quelque sorte la créature qui cherche à devenir comme Dieu qui, jadis, créa l’homme ?
Cette technologie, malheureusement, est fortement associée au domaine de surveillance et de contrôle des masses et occupe aussi des fonctions autrefois tenues par des êtres humains.
Alors? Que dit la Bible sur une telle intelligence artificielle?
La Bible indique que deux «bêtes» se manifesteront à la fin des temps. L’une, est l’antichrist, et l’autre semble être un responsable mondiale de la religion à cause de la mention de son vêtement blanc (comme un pape) et au fait qu’elle impose à tous les habitants de la Terre d’adorer l’antichrist.
Ce responsable semble avoir la capacité d’opérer de grands prodiges qui font penser au projet «Blue Beam» : une technologie qui utilise des hologrammes 3D associés à un programme de manipulation des pensées qui donnent l’illusion de montrer quelque chose qui semble réel et souvent «surnaturel». En d’autres mots, une animation holographique en 3D qui nous qui simule le réel alors que ce n’est qu’une illusion.
Apocalypse versets 13-15.
- Elle opérait de grands prodiges, même jusqu’à faire descendre du feu du ciel sur la terre, à la vue des hommes.
Et elle séduisait les habitants de la terre par les prodiges qu’il lui était donné d’opérer en présence de la bête, disant aux habitants de la terre de faire une image à la bête qui avait la blessure de l’épée et qui vivait.
Et il lui fut donné d’animer l’image de la bête, afin que l’image de la bête parlât, et qu’elle fît que tous ceux qui n’adoreraient pas l’image de la bête fussent tués.
Cette bête anime «l’image de la bête» capable de parler (comme une télévision) mais qui peut aussi tuer ceux qui n’adorent pas.
Ce texte a été écrit il y a 2’000 ans. La télévision n’existait pas.
Une télévision qui est capable d’être vue par tous les habitants de la terre… Avec le satellite, c’est aujourd’hui possible de diffuser un événement sans parler des caméras et écrans qui pullulent partout autour de nous. Il peut s’agir aussi d’une animation 3D puisqu’il est précisé que la bête anime « l’image de la bête».
Il ne manque plus que cette partie : celle qui fait «que ceux qui n’adoreraient pas l’image de la bête» soient tués.
Aurions-nous une telle technologie? Il suffit d’ associer l’Intelligence Artificielle avec ses fonctions de gestion en temps réel de reconnaissance faciale, un programme qui peut déterminer si une personne est dans une posture d’adoration ou pas. On ajoute la possibilité de «tuer» quelqu’un qui a été «reconnu» comme transgresseur de l’ordre…. Et «voilà»!
Considérez le modèle actuel de surveillance en Chine. Dès qu’une personne commet un délit, son crédit social est débité. Si, au contraire, elle commet un acte de citoyenneté, son crédit social est crédité. Tout ceci se fait avec la reconnaissance faciale et de programmes d’intelligence artificielle qui interprètent les actions de la personne. Tout se fait par le biais de caméras qui sont présentes partout.
Et si on utilisait, par exemple, ce que la Bible appelle «la marque de la bête» – la fameuse marque 666 : possible que cette marque, non seulement identifie de manière unique chaque personne (puisqu’il s’agit d’une marque sans lequel personne ne peut vendre ou acheter), mais «active» ou «désactive» une personne à distance et à volonté en ciblant son ADN? Le DailyMail en 2022 a déjà fait un article (1) sur une telle arme, capable, à partir de l’ADN d’une personne, de la tuer. C’est une arme biologique.
Une marque «qui tue»? Bien sûr, c’est juste une hypothèse. Juste pour dire qu’au niveau technologique, nous avons tout ce qu’il faut pour que les prophéties de la Bible s’accomplissent.
Apocalypse 13 versets 16-18.
- Et elle fit que tous, petits et grands, riches et pauvres, libres et esclaves, reçussent une marque sur leur main droite ou sur leur front, et que personne ne pût acheter ni vendre, sans avoir la marque, le nom de la bête ou le nombre de son nom.
C’est ici la sagesse. Que celui qui a de l’intelligence calcule le nombre de la bête. Car c’est un nombre d’homme, et son nombre est six cent soixante-six.
Que faut-il retenir ?
Est-ce que l’Intelligence Artificielle dotée d’une conscience relèverait de la science-fiction?
Qui a raison? Est-ce que la IA est arrivée à un stade où elle est devenue sensible au point d’avoir une conscience?
Est-ce que l’illusion d’être humain est parfaite au point de pourvoir tromper les gens?
Nous n’avons pas tous les éléments en main pour en juger car nous avons des avis de témoins qui différent sur le sujet.
Ce qui est certain, c’est que la communauté de l’IA pense qu’un jour une IA pourrait devenir consciente, mais seulement sur le long terme.
Un doute subsiste lorsque l’on considère les témoignages qui soulignent le manque d’éthique dans ce domaine: est-ce que l’on nous cacherait à quel stade la IA serait parvenue? Est-ce qu’ils ont volontairement passé outre certaines barrières éthiques?
L’avenir nous le dira.
Un point important mérite d’être souligné : l’Intelligence Artificielle repose sur des définitions, des données venant de l’homme. Elle fonctionne sur les définitions, que ce soit pour définir les émotions ou des notions abstraites, qui ont été mises dans son système.
Ses raisonnements, ses décisions et ses actions vont se reposer sur le système de valeurs et de notions qu’elle aura reçus. Et ce système de valeurs doit être transparent pour savoir s’il répond bien aux règles de l’éthique. Or, c’est justement ce que Margaret Mitchell reprochait à Google : un manque de transparence sur ce qui était mis dans le système et aussi «à la sortie».
Sans les limites imposées par l’éthique, l’Intelligence Artificielle peut devenir dangereuse suivant l’emploi qu’on en ferait.
Par exemple, utiliser l’Intelligence Artificielle pour donner la meilleure stratégie d’une attaque militaire mais en ne tenant pas compte d’une population civile parce qu’elle aura été définie, dans le système de l’IA, comme appartenant à une ethnie X dont il ne faut pas tenir compte. Les possibilités sont infinies suivant ce qui est programmé.
Cet alerteur, M. Lemoine a déclaré que les gens sont dans leur droit de créer une technologie qui va transformer les vies. Il continue :
- «Je pense que cette technologie va être incroyable. Je pense que cela profitera à tout le monde. Mais peut-être que d’autres personnes ne sont pas d’accord et peut-être que nous, chez Google, ne devrions pas faire tous les choix.»
Il soulève un autre problème: devons-nous laisser des entreprises privées faire ce qu’elles veulent dans un domaine qui, potentiellement, peut être dangereux? Existe-t’il une entité qui surveille ce qui est fait?
Jusqu’où ont-ils le droit d’aller? Et en avons-nous réellement besoin? Et si quelqu’un en a besoin, dans quel but est-elle déployée dans notre quotidien sur la planète entière?
Est-ce que cette technologie œuvre vraiment pour le bien de l’humanité ou contribue-t-elle à ce que la Bible avait prédit depuis deux millénaires?
Je vous laisse réfléchir à ces questions qui n’ont pas encore de réponses à ce jour.
Vous avez aimé cet article ?
Ne pas hésiter à laisser un commentaire, vous abonner pour recevoir une notification lorsqu’il y a un nouvel article, de partager sur les réseaux sociaux…
Plus de détails, sources et références sont donnés dans la section ci-dessous « En savoir plus… ».
Les 3 lois de la robotique
Isaac Asimov est un auteur de science-fiction qui a une renommée mondiale. Il a définit, pour les besoins de ses scénarios, les trois lois de la robotique :
- Un robot ne peut pas blesser un être humain ou l’amener à être blessé par son inaction.
- Un robot doit obéir aux ordres des humains sauf si cela entre en conflit avec la première loi.
- Un robot doit s’auto-protéger sauf si cela entre en conflit avec une des premières lois.
Ce que dit la Bible
Commentaires | Écritures |
Apocalypse 13 versets 11-18. Puis je vis monter de la terre une autre bête, qui avait deux cornes semblables à celles d’un agneau, et qui parlait comme un dragon.
Elle exerçait toute l’autorité de la première bête en sa présence, et elle faisait que la terre et ses habitants adoraient la première bête, dont la blessure mortelle avait été guérie. Elle opérait de grands prodiges, même jusqu’à faire descendre du feu du ciel sur la terre, à la vue des hommes. Et elle séduisait les habitants de la terre par les prodiges qu’il lui était donné d’opérer en présence de la bête, disant aux habitants de la terre de faire une image à la bête qui avait la blessure de l’épée et qui vivait. Et il lui fut donné d’animer l’image de la bête, afin que l’image de la bête parlât, et qu’elle fît que tous ceux qui n’adoreraient pas l’image de la bête fussent tués. Et elle fit que tous, petits et grands, riches et pauvres, libres et esclaves, reçussent une marque sur leur main droite ou sur leur front, et que personne ne pût acheter ni vendre, sans avoir la marque, le nom de la bête ou le nombre de son nom.
C’est ici la sagesse. Que celui qui a de l’intelligence calcule le nombre de la bête. Car c’est un nombre d’homme, et son nombre est six cent soixante-six. |
Sources externes
Articles :
En Français
- 20minutes (.fr) – Non, l’intelligence artificielle de Google n’est pas consciente, comme l’affirme un ingénieur de l’entreprise
- 20minutes (.fr) – LaMDA: l’IA de Google veut se montrer intelligente en toute circonstance
En anglais
- Dailymail (.co.uk) – Google engineer warns the firm’s AI is sentient
- Reference (1) Dailymail (.co.uk) House-Intelligence Committee speaks New Weapons to target single people
Vidéos à rechercher (*):
En Français
- YouTube – Tech & Co – Google a-t-il mis au point une intelligence artificielle « ‘consciente »?
- YouTube – Joseph Prince – Vivre sans stress
Copyright
- Louis Segond (LSG) by Public Domain sauf si spécifié autrement.
- (*) Les liens Youtube ne sont pas autorisés sur le texte d’un article. Vous devez rechercher la vidéo en utilisant les informations mentionnées.
- Image mise en avant : dessin personnel.
Partager :
- Cliquez pour partager sur Twitter(ouvre dans une nouvelle fenêtre)
- Cliquez pour partager sur Facebook(ouvre dans une nouvelle fenêtre)
- Plus
- Cliquer pour imprimer(ouvre dans une nouvelle fenêtre)
- Cliquer pour envoyer un lien par e-mail à un ami(ouvre dans une nouvelle fenêtre)
- Cliquez pour partager sur Telegram(ouvre dans une nouvelle fenêtre)
- Cliquez pour partager sur WhatsApp(ouvre dans une nouvelle fenêtre)
- Cliquez pour partager sur Pinterest(ouvre dans une nouvelle fenêtre)