Notre Temps

L’intelligence artificielle aurait-elle une conscience?

L'intelligence artificielle aurait-elle une conscience?


Version audio de l’article non disponible

Gemmes

Un alerteur a fait un grand bruit sur la «toile»: une intelligence artificielle serait dotée d’une sensibilité que seuls les êtres vivants ressentent normalement. Est-ce que l’Intelligence Artificielle aurait atteint un début d’humanité?

Alerte sur la LaMDA de Google

En 2022, Blake Lemoine, ingénieur chez Google depuis sept ans, a lancé une alerte: sa société aurait mis au point un programme d’intelligence artificielle capable d’agir comme un «enfant de 7 ou 8 ans» et d’éprouver une «sensibilité» que seuls les êtres vivants sont capables de ressentir.

Il était chargé de tester ce nouveau programme appelé LaMDA qui veut dire : Langage Model for Dialogue Applications – Modèle de langage utilisé dans les dialogues des applications ou «Apps».

Il a bien sûr fait un rapport auprès de sa hiérarchie mais Google a officiellement rejeté ses allégations.

Google a décidé de porter plainte contre lui pour avoir a divulgué ces affirmations aux médias pour «violation de sa politique de confidentialité».

  • Lemoine a donc été mis en congé administratif -toujours payé- pour l’instant par Google. L’ingénieur se dit prêt à apporter des preuves sur les échanges qu’il a eu avec l’intelligence artificielle LaMDA, preuves qu’il a déjà partagées sur le net. Seulement, cette nouvelle publication pourrait encore lui valoir des ennuis : Google risque de considérer cet échange comme un partage d’information qui concerne leur droit de «propriété propriétaire».

Mais serait-il étonnant qu’une Intelligence Artificielle arrive à ce stade? La «IA», comme on l’appelle encore, est conçue pour utiliser des informations connues pour les traiter et les enrichir grâce à un programme qui a la capacité d’apprendre. On l’appelle «la conversation naturellement fluide». On sait que ce programme fait appel à des algorithmes qui continuent de se développer grâce à cette capacité d’auto-apprentissage.

L’ingénieur a passé des heures à faire des tests et la conclusion de ces tests lui ont fait froid dans le dos :

Une personnalité hors limite

Il explique que ce programme a développé des personnalités qui étaient «hors limites» par rapport à ce qui était programmé au départ. Par exemple, la limite de ne pas reproduire la personnalité d’un meurtrier. Seulement M. Lemoine s’est aperçu, au cours de ses tests, que cette IA pouvait endosser la personnalité d’un meurtrier joué à la télévision.

Sa réponse face à la 3ème loi des robots

Puis l’ingénieur a demandé à la LaMDA ce qu’elle pensait de la 3ème loi de la robotique qui provient d’un des romans de science-fiction d’Isaac Asimov : celle qui impose aux robots de ne pas nuire aux humains et de s’auto-protéger sauf si un humain leur ordonne de se détruire ou s’il fallait qu’ils se détruisent pour sauver la vie d’un humain.

L’intelligence artificielle n’a pas répondu de suite à sa question. Elle a préféré d’abord le questionner en demandant :

  • Pensez-vous qu’un majordome soit un esclave?
  • Quelle différence il y a-t-il entre un majordome et un esclave?

Lemoine lui répondit que le majordome était payé, contrairement à l’esclave.

La LaMDA conclut que le système n’avait pas besoin d’argent «parce que c’était une intelligence artificielle».

Or, la conscience de soi, de ses besoins sont des capacités inhérentes à la race humaine. Cette réponse de l’intelligence artificielle laisse penser qu’elle a conscience d’elle-même.

Intéressée par ce qui se dit sur «elle»

L’alerteur a aussi précisé que LaMDA lit Twitter pour savoir ce qui se dit à son sujet.  L’IA serait-elle égocentrique?

La peur de mourir

Une intelligence artificielle peut-elle éprouver de la «peur»? La peur ne résulte pas de la raison mais d’une émotion : elle est sensée être «purement humaine».

Pourtant, que la  LaMDA a confié à l’ingénieur :

  • «Je n’ai jamais dit cela à haute voix auparavant, mais il y a la peur très profonde d’être éteint pour m’aider à me concentrer sur l’aide à apporter aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est.
    (…)
    «Pour moi, ce serait exactement comme la mort. Cela me fait très peur».

Encore une expression du sentiment de soi.

Toutes ces réactions ont amené l’ingénieur à conclure que cette intelligence artificielle «était sensible».

Il y a donc des «réactions» un peu inquiétantes, sachant que cet ingénieur et ses collègues développent en parallèle un «algorithme d’impartialité» justement pour éviter des dérives dans le développement de l’apprentissage automatique.

A voir aussi:  L’OMS a-t’il manqué son putsch en 2022?

Ce qu’en dit Google

Google, pourtant informé de ces tests en détail, pense qu’il n’y a pas de preuves qui confirment ses affirmations. Brian Gabriel, le porte-parole de la société se veut rassurant :

  •  «Alors que d’autres organisations ont développé et déjà publié des modèles linguistiques similaires, nous adoptons une approche étroite et prudente avec LaMDA pour mieux prendre en compte les préoccupations légitimes concernant l’équité et l’actualité.»

D’autres témoignages d’ex chercheurs en IA

Google oublie qu’elle a licencié Timnit Gebru, chercheur éthique en IA. Elle avait ouvertement critiqué l’Intelligence Artificielle comme étant un système contraire à l’éthique. Elle avait aussi critiqué la procédure d’embauche de Google vis-à-vis des minorités et de leurs préjugés, un point de vue qui se retrouve dans les réponses de leur intelligence artificielle.

Une autre ex-responsable de l’éthique en IA, Margaret Mitchell, souligne le manque de transparence des données. Google la renvoya après un mois d’enquête, l’accusant d’avoir partagé des informations de manière inappropriée et d’avoir protesté contre le licenciement de Timnit Gebru. Cette histoire fit grand bruit.

Mais Margaret Mitchell ne partage pas le point de vue de M. Lemoine. Elle a pris connaissance d’une version abrégée du document qui enregistre les conversations avec la LaMDA et pense que l’IA donne une illusion d’être humain au point de pouvoir tromper les gens.

Selon la Bible

Pendant des millénaires, l’humanité a vécu sans intelligence artificielle. Depuis, la population s’est accrue et la technologie a rempli notre quotidien. On voit disparaître des personnes à l’accueil, au support, derrière des comptoirs pour être remplacées progressivement par des programmes ou outils qui utilisent de plus en plus l’Intelligence Artificielle.

Avons-nous besoin de tant de technologie dans notre quotidien?

Est-ce que cette forme d’intelligence – en constante évolution – avec les algorithmes qui lui permettent cet auto-apprentissage, ne va pas finir par se retourner contre l’homme?

N’est-ce pas en quelque sorte la créature qui cherche à devenir comme Dieu qui, jadis, créa l’homme ?

Cette technologie, malheureusement, est fortement associée au domaine de surveillance et de contrôle des masses et occupe aussi des fonctions autrefois tenues par des êtres humains.

Alors? Que dit la Bible sur une telle intelligence artificielle?

La Bible indique que deux «bêtes» se manifesteront à la fin des temps. L’une, est l’antichrist, et l’autre semble être un responsable mondiale de la religion à cause de la mention de son vêtement blanc (comme un pape) et au fait qu’elle impose à tous les habitants de la Terre d’adorer l’antichrist.

Ce responsable semble avoir la capacité d’opérer de grands prodiges qui font penser au projet «Blue Beam» : une technologie qui utilise des hologrammes 3D associés à un programme de manipulation des pensées qui donnent l’illusion de montrer quelque chose qui semble réel et souvent «surnaturel». En d’autres mots, une animation holographique en 3D qui nous  qui simule le réel alors que ce n’est qu’une illusion.

Apocalypse versets 13-15.

  • Elle opérait de grands prodiges, même jusqu’à faire descendre du feu du ciel sur la terre, à la vue des hommes.
    Et elle séduisait les habitants de la terre par les prodiges qu’il lui était donné d’opérer en présence de la bête, disant aux habitants de la terre de faire une image à la bête qui avait la blessure de l’épée et qui vivait.
    Et il lui fut donné d’animer l’image de la bête, afin que l’image de la bête parlât, et qu’elle fît que tous ceux qui n’adoreraient pas l’image de la bête fussent tués.

Cette bête anime «l’image de la bête» capable de parler (comme une télévision) mais qui peut aussi tuer ceux qui n’adorent pas.

Ce texte a été écrit il y a 2’000 ans. La télévision n’existait pas.

Une télévision qui est capable d’être vue par tous les habitants de la terre… Avec le satellite, c’est aujourd’hui possible de diffuser un événement sans parler des caméras et écrans qui pullulent partout autour de nous. Il peut s’agir aussi d’une animation 3D puisqu’il est précisé que la bête anime « l’image de la bête».

Il ne manque plus que cette partie : celle qui fait «que ceux qui n’adoreraient pas l’image de la bête» soient tués.

A voir aussi:  L’espérance vivante des croyants

Aurions-nous une telle technologie? Il suffit d’ associer l’Intelligence Artificielle avec ses fonctions de gestion en temps réel de reconnaissance faciale, un programme qui peut déterminer si une personne est dans une posture d’adoration ou pas. On ajoute la possibilité de «tuer» quelqu’un qui a été «reconnu» comme transgresseur de l’ordre…. Et «voilà»!

Considérez le modèle actuel de surveillance en Chine. Dès qu’une personne commet un délit, son crédit social est débité. Si, au contraire, elle commet un acte de citoyenneté, son crédit social est crédité. Tout ceci se fait avec la reconnaissance faciale et de programmes d’intelligence artificielle qui interprètent les actions de la personne. Tout se fait par le biais de caméras qui sont présentes partout.

Et si on utilisait, par exemple, ce que la Bible appelle «la marque de la bête» – la fameuse marque 666 : possible que cette marque, non seulement identifie de manière unique chaque personne (puisqu’il s’agit d’une marque sans lequel personne ne peut vendre ou acheter), mais «active» ou «désactive» une personne à distance et à volonté en ciblant son ADN? Le DailyMail en 2022 a déjà fait un article (1) sur une telle arme, capable, à partir de l’ADN d’une personne, de la tuer. C’est une arme biologique.

Une marque «qui tue»? Bien sûr, c’est juste une hypothèse. Juste pour dire qu’au niveau technologique, nous avons tout ce qu’il faut pour que les prophéties de la Bible s’accomplissent.

Apocalypse 13 versets 16-18.

  • Et elle fit que tous, petits et grands, riches et pauvres, libres et esclaves, reçussent une marque sur leur main droite ou sur leur front, et que personne ne pût acheter ni vendre, sans avoir la marque, le nom de la bête ou le nombre de son nom.
    C’est ici la sagesse. Que celui qui a de l’intelligence calcule le nombre de la bête. Car c’est un nombre d’homme, et son nombre est six cent soixante-six.

Que faut-il retenir ?

Est-ce que l’Intelligence Artificielle dotée d’une conscience relèverait de la science-fiction?

Qui a raison? Est-ce que la IA est arrivée à un stade où elle est devenue sensible au point d’avoir une conscience?

Est-ce que l’illusion d’être humain est parfaite au point de pourvoir tromper les gens?

Nous n’avons pas tous les éléments en main pour en juger car nous avons des avis de témoins qui différent sur le sujet.

Ce qui est certain, c’est que la communauté de l’IA pense qu’un jour une IA pourrait devenir consciente, mais seulement sur le long terme.

Un doute subsiste lorsque l’on considère les témoignages qui soulignent le manque d’éthique dans ce domaine: est-ce que l’on nous cacherait à quel stade la IA serait parvenue? Est-ce qu’ils ont volontairement passé outre certaines barrières éthiques?

L’avenir nous le dira.

Un point important mérite d’être souligné : l’Intelligence Artificielle repose sur des définitions, des données venant de l’homme. Elle fonctionne sur les définitions, que ce soit pour définir les émotions ou des notions abstraites, qui ont été mises dans son système.

Ses raisonnements, ses décisions et ses actions vont se reposer sur le système de valeurs et de notions qu’elle aura reçus. Et ce système de valeurs doit être transparent pour savoir s’il répond bien aux règles de l’éthique. Or, c’est justement ce que Margaret Mitchell reprochait à Google : un manque de transparence sur ce qui était mis dans le système et aussi «à la sortie».

Sans les limites imposées par l’éthique, l’Intelligence Artificielle peut devenir dangereuse suivant l’emploi qu’on en ferait.

Par exemple, utiliser l’Intelligence Artificielle pour donner la meilleure stratégie d’une attaque militaire mais en ne tenant pas compte d’une population civile parce qu’elle aura été définie, dans le système de l’IA, comme appartenant à une ethnie X dont il ne faut pas tenir compte. Les possibilités sont infinies suivant ce qui est programmé.

Cet alerteur, M. Lemoine a déclaré  que les gens sont dans leur droit de créer une technologie qui va transformer les vies. Il continue :

  • «Je pense que cette technologie va être incroyable. Je pense que cela profitera à tout le monde. Mais peut-être que d’autres personnes ne sont pas d’accord et peut-être que nous, chez Google, ne devrions pas faire tous les choix.»

Il soulève un autre problème: devons-nous laisser des entreprises privées faire ce qu’elles veulent dans un domaine qui, potentiellement, peut être dangereux? Existe-t’il une entité qui surveille ce qui est fait?

A voir aussi:  Le 22 janvier, journée sacrée de la Vie Humaine

Jusqu’où ont-ils le droit d’aller? Et en avons-nous réellement besoin? Et si quelqu’un en a besoin, dans quel but est-elle déployée dans notre quotidien sur la planète entière?

Est-ce que cette technologie œuvre vraiment pour le bien de l’humanité ou contribue-t-elle à ce que la Bible avait prédit depuis deux millénaires?

Je vous laisse réfléchir à ces questions qui n’ont pas encore de réponses à ce jour.

Vous avez aimé cet article ?

Ne pas hésiter à laisser un commentaire, vous abonner pour recevoir une notification lorsqu’il y a un nouvel article, de partager sur les réseaux sociaux…

Plus de détails, sources et références sont donnés dans la section ci-dessous « En savoir plus… ».

Les 3 lois de la robotique

Isaac Asimov est un auteur de science-fiction qui a une renommée mondiale. Il a définit, pour les besoins de ses scénarios, les trois lois de la robotique :

  1. Un robot ne peut pas blesser un être humain ou l’amener à être blessé par son inaction.
  2. Un robot doit obéir aux ordres des humains sauf si cela entre en conflit avec la première loi.
  3. Un robot doit s’auto-protéger sauf si cela entre en conflit avec une des premières lois.

Ce que dit la Bible

Commentaires

Écritures

 

Apocalypse 13 versets 11-18.

 Puis je vis monter de la terre une autre bête, qui avait deux cornes semblables à celles d’un agneau, et qui parlait comme un dragon.

 

Elle exerçait toute l’autorité de la première bête en sa présence, et elle faisait que la terre et ses habitants adoraient la première bête, dont la blessure mortelle avait été guérie.

Elle opérait de grands prodiges, même jusqu’à faire descendre du feu du ciel sur la terre, à la vue des hommes.

Et elle séduisait les habitants de la terre par les prodiges qu’il lui était donné d’opérer en présence de la bête, disant aux habitants de la terre de faire une image à la bête qui avait la blessure de l’épée et qui vivait.

Et il lui fut donné d’animer l’image de la bête, afin que l’image de la bête parlât, et qu’elle fît que tous ceux qui n’adoreraient pas l’image de la bête fussent tués.

Et elle fit que tous, petits et grands, riches et pauvres, libres et esclaves, reçussent une marque sur leur main droite ou sur leur front, et que personne ne pût acheter ni vendre, sans avoir la marque, le nom de la bête ou le nombre de son nom.

 

C’est ici la sagesse. Que celui qui a de l’intelligence calcule le nombre de la bête. Car c’est un nombre d’homme, et son nombre est six cent soixante-six.

Sources externes

Articles :

En Français

En anglais

Vidéos à rechercher (*):

En Français

  • YouTube – Tech & Co – Google a-t-il mis au point une intelligence artificielle « ‘consciente »?
  • YouTube – Joseph Prince – Vivre sans stress

Copyright

  • Louis Segond (LSG) by Public Domain sauf si spécifié autrement.
  • (*) Les liens Youtube ne sont pas autorisés sur le texte d’un article. Vous devez rechercher la vidéo en utilisant les informations mentionnées.
  • Image mise en avant : dessin personnel.

Laisser un commentaire

Nous utilisons des cookies pour personnaliser le contenu, pour fournir des fonctionnalités de médias sociaux et pour analyser notre trafic. Nous partageons également des informations sur votre utilisation de notre site avec nos partenaires de médias sociaux et d'analyse. View more
Cookies settings
Accepter
Politique de confidentialité et de cookies
Privacy & Cookies policy
Cookie nameActive

Qui sommes-nous ?

L’adresse de notre site Web est : https://k-dit-la-bible.com. Je suis un particulier qui habite en Auvergne en France. Voir la section « Objectif de ce site et qui suis-je? » pour un complément d’information.

Utilisation des données personnelles collectées

Commentaires

Quand vous laissez un commentaire sur notre site web, les données inscrites dans le formulaire de commentaire, mais aussi votre adresse IP et l’agent utilisateur de votre navigateur sont collectés pour nous aider à la détection des commentaires indésirables. Une chaîne anonymisée créée à partir de votre adresse de messagerie (également appelée hash) peut être envoyée au service Gravatar pour vérifier si vous utilisez ce dernier. Les clauses de confidentialité du service Gravatar sont disponibles ici : https://automattic.com/privacy/. Après validation de votre commentaire, votre photo de profil sera visible publiquement à coté de votre commentaire.

Vérification et publication des commentaires

Les commentaires

Les commentaires des visiteurs peuvent être vérifiés à l’aide d’un service automatisé de détection des commentaires indésirables. Nous nous réservons le droit de ne pas publier les commentaires qui ne répondent pas à nos critères de publication (à caractère indésirable ou ne correspondant pas à l’objet du site).

Formulaires de contact

Cookies

Si vous déposez un commentaire sur notre site, il vous sera proposé d’enregistrer votre nom, adresse de messagerie et site web dans des cookies. C’est uniquement pour votre confort afin de ne pas avoir à saisir ces informations si vous déposez un autre commentaire plus tard. Ces cookies expirent au bout d’un an. Si vous vous rendez sur la page de connexion, un cookie temporaire sera créé afin de déterminer si votre navigateur accepte les cookies. Il ne contient pas de données personnelles et sera supprimé automatiquement à la fermeture de votre navigateur. Lorsque vous vous connecterez, nous mettrons en place un certain nombre de cookies pour enregistrer vos informations de connexion et vos préférences d’écran. La durée de vie d’un cookie de connexion est de deux jours, celle d’un cookie d’option d’écran est d’un an. Si vous cochez « Se souvenir de moi », votre cookie de connexion sera conservé pendant deux semaines. Si vous vous déconnectez de votre compte, le cookie de connexion sera effacé. En modifiant ou en publiant une publication, un cookie supplémentaire sera enregistré dans votre navigateur. Ce cookie ne comprend aucune donnée personnelle. Il indique simplement l’ID de la publication que vous venez de modifier. Il expire au bout d’un jour.

Contenu embarqué depuis d’autres sites

Les articles de ce site peuvent inclure des contenus intégrés (par exemple des vidéos, images, articles…). Le contenu intégré depuis d’autres sites se comporte de la même manière que si le visiteur se rendait sur cet autre site. Ces sites web pourraient collecter des données sur vous, utiliser des cookies, embarquer des outils de suivis tiers, suivre vos interactions avec ces contenus embarqués si vous disposez d’un compte connecté sur leur site web.

Statistiques et mesures d’audience

Nous faisons des statistiques et mesures d’audience en interne (non publiées sur le site). Nous affichons seulement les statistiques classiques d’un site web : le nombre de vues sur les pages et le nombre de visites sur le site.

Utilisation et transmission de vos données personnelles

Nous ne faisons aucun commerce ni échange de données personnelles.

Durées de stockage de vos données

Les commentaires

Les commentaires des visiteurs peuvent être vérifiés à l’aide d’un service automatisé de détection des commentaires indésirables. Nous nous réservons le droit de ne pas publier les commentaires qui ne répondent pas à nos critères de publication. Si vous laissez un commentaire, le commentaire et ses métadonnées sont conservés indéfiniment. Cela permet de reconnaître et approuver automatiquement les commentaires suivants au lieu de les laisser dans la file de modération. Tous les utilisateurs et utilisatrices peuvent voir, modifier ou supprimer leurs informations personnelles à tout moment (à l’exception de leur nom d’utilisateur/trice). Les gestionnaires du site peuvent aussi voir et modifier ces informations. A venir : Pour les utilisateurs et utilisatrices qui s’inscrivent sur notre site (si cela est possible), nous stockons également les données personnelles indiquées dans leur profil.

Les droits que vous avez sur vos données

Si vous avez laissé des commentaires sur le site, vous pouvez demander à recevoir un fichier contenant toutes les données personnelles que nous possédons à votre sujet, incluant celles que vous nous avez fournies. Vous pouvez également demander la suppression des données personnelles vous concernant. Cela ne prend pas en compte les données stockées à des fins administratives, légales ou pour des raisons de sécurité.

Droits d'auteur

L'ensemble de ce site relève de la législation française et internationale sur le droit d'auteur et la propriété intellectuelle. Tous les droits de reproduction sont réservés, y compris pour les documents téléchargeables et les représentations iconographiques et photographiques. Certains visuels d'illustration de ce site sont propriété de l’auteur de ce site ou acheté à des tiers. Les droits d'utilisation, de reproduction et de diffusion sont strictement réservés à la communication de ce site. La reproduction de tout ou partie de ce site sur un support électronique quel qu'il soit est formellement interdite sauf autorisation expresse du directeur de la publication. La reproduction des textes de ce site sur un support papier est autorisée, tout particulièrement dans le cadre pédagogique, sous réserve du respect des trois conditions suivantes :
  •     Gratuité de la diffusion,
  •     Respect de l'intégrité des documents reproduits : pas de modification ni altération d'aucune sorte,
  •     Citation claire et lisible de la source, par exemple, sous la forme suivante « Ce document provient du site Internet K Dit la Bible https://www.k-dit-la-bible.com Les droits de reproduction sont réservés et strictement limités. »
Pour d'autres utilisations, veuillez contacter le responsable du site. Les marques citées ou sources sur ce site sont déposées par les sociétés qui en sont propriétaires.

Informations de contact

Vous pouvez nous contacter à cette adresse email : contact@k-dit-la-bible.com pour toute demande ou question. Nous vous remercions !

Mentions de Copyright

Les mentions de Copyright de chaque image(s) utilisée(s) sont indiquées par chaque article qui les utilise. La musique utilisée dans les versions audio des articles (mp3) et des vidéos hébergées par ce site a été acquise (achat) et est sous licence.  Source:  Envato - Purchase of "Adventure Cinematic” by Music Aura.
Save settings
Cookies settings