Quand les robots ne peuvent pas gérer la vérité : intelligence artificielle et activisme

aquarelle simulée générée par ordinateur de 7 personnes pleurant devant le pont de brooklyn

Par Marc Eliot Stein, World BEYOND War, 31 juillet 2023

Ceci est une transcription complète de l'épisode 50 de World BEYOND War: un nouveau podcast.

Nous sommes en juillet, l'été chaud de 2023. Vous savez qui je suis, je suis Marc Eliot Stein, directeur technologique de World Beyond War, toujours ici dans les terres Lanape de Brooklyn New York, faisant toujours la bonne chose ici sur le World Beyond War Podcast, Sauf qu'aujourd'hui c'est particulier car c'est l'épisode 50, wow un chiffre rond.

Quand j'ai commencé ce podcast, je suppose que je n'ai même jamais pensé si j'arriverais ou non à 50 épisodes. Le nombre 50 n'aurait certainement pas semblé réaliste à l'époque. Je suppose que je me demandais principalement si je finirais jamais l'épisode numéro 1, et il y a eu quelques appels à abandonner avant que je ne le fasse.

Et me voici à 50 ans, et quelle joie de réaliser que nous avons trouvé comment faire fonctionner ce podcast anti-guerre, et trouvé un public qui grandit chaque mois. Je suis tellement fier de ce podcast et je suis reconnaissant à tous ceux qui en ont fait partie jusqu'à présent.

Le podcasting est un format créatif unique. Ce n'est pas comme autre chose. Je le sais parce que je suis moi-même accro aux podcasts. J'ai au moins 20 émissions régulières qui m'intéressent vraiment - sur l'histoire, la politique, la technologie, la musique, la littérature, la télévision, les films. Quand je suis d'humeur à me détendre et à élargir mes connaissances en même temps, il n'y a vraiment aucun autre format qui frappe comme un podcast. Je pense que c'est une distinction importante : placez un hôte et un invité dans un webinaire, par exemple, ou un chat en direct, et ils auront un type de conversation, mais si vous mettez les deux mêmes personnes dans une interview en podcast, d'une manière ou d'une autre, ils 'll aura un autre type de conversation - probablement plus personnelle, plus spontanée, plus décousue, plus dans l'instant, moins conçue pour aller vers une conclusion.

Pourquoi est-ce exactement? Je ne sais pas, mais le regretté philosophe des médias et de la technologie Marshall McLuhan a écrit quelque chose en 1964 sur la rapidité avec laquelle la nouvelle popularité de la télévision changeait la société moderne, et il avait raison. Le médium, dit McLuhan, est le message. Le format est le contenu.

Par exemple, vous pouvez écrire les mêmes mots sur Facebook et sur Twitter et sur LinkedIn, et les mots auront une signification particulière différente dans chaque cas. Étant donné que les podcasts célèbrent la voix humaine spontanée et non répétée, le podcasting est devenu un forum où l'ambivalence humaine ou même la contradiction et l'ironie déroutantes peuvent être facilement accueillies et comprises. Je suppose que c'est un bon forum pour parler d'une tendance qui fait beaucoup parler d'elle, et dont j'ai moi-même beaucoup de pensées ambivalentes et déroutantes sur le point de partager avec vous aujourd'hui. Je parle d'intelligence artificielle.

Lorsque Marshall McLuhan a déclaré que le média est le message en 1964, à l'époque où peu de gens pensaient aux façons subtiles dont la télévision et d'autres médias de diffusion intimes à domicile changeaient le tissu même de la société humaine. Aujourd'hui, un nouveau média activé par la technologie la plus moderne d'aujourd'hui menace également d'avoir un vaste impact sociétal. Je parle d'outils d'IA à usage général populaires comme ChatGPT qui sont disponibles pour toute personne disposant d'une connexion Internet - et si vous n'avez pas entendu parler de ChatGPT, il attire beaucoup d'attention partout en raison de la façon dont il émule la conversation humaine et avec quelle facilité il peut intégrer et récupérer tout le large éventail de connaissances générales disponibles.

Les chatbots existent depuis quelques années - ils peuvent être aussi simples et inoffensifs que des chatbots de service client automatisés conviviaux sur un site Web BestBuy ou Ticketmaster. Les nouveaux chatbots tels que ChatGPT4 ne se limitent pas aux produits électroniques ou aux billets de concert - ce sont des types très différents de moteurs de connaissances, connus sous le nom de grands modèles de langage, formés pour saisir l'intégralité de l'intelligence humaine.

Parfois, les gens pensent que le G dans ChatGPT est pour Général, et ce serait une supposition décente, car le système est conçu pour démontrer l'intelligence générale et les connaissances générales. Le G signifie en fait Génératif, ce qui signifie que ce produit est également conçu pour créer des choses - pour générer des images et des mots originaux. Le P signifie pré-formé, dont nous parlerons dans quelques minutes, et le T signifie Transformer, qui n'est pas un album classique de Lou Reed mais un modèle de conception logicielle permettant au modèle de langage de répondre aux textes saisis non par traiter un mot à la fois mais en considérant et en exécutant des transformations sur l'ensemble du texte saisi dans son ensemble.

Ces nouveaux chatbots peuvent converser sur n'importe quel sujet dans un style conversationnel amical, interpersonnel et nuancé. Les chatbots peuvent rédiger des essais, résoudre des problèmes, effectuer des recherches approfondies dans des bases de données, générer du code informatique, répondre instantanément à des questions difficiles. ChatGPT et d'autres offres similaires montrent un niveau d'agilité linguistique et globale qui semble faire avancer le domaine de l'intelligence artificielle plus rapidement que beaucoup d'entre nous ne l'auraient imaginé. Il n'y a pas si longtemps, il y avait un reportage selon lequel certains membres du personnel de Google pensaient que leur propre système d'IA pouvait réussir le test de Turing et devenir indiscernable de la communication humaine sensible, effrayant les propres experts de Google avec ses preuves de conscience. Je ne sais pas si je crois personnellement que n'importe quelle IA peut réussir le test de Turing, mais je sais que de nombreux experts pensent maintenant que cela devient possible.

Les chatbots de connaissances générales sont loin d'être le seul cas d'utilisation populaire de l'IA. Les générateurs d'images peuvent créer instantanément des œuvres d'art visuelles à partir d'invites de texte - des images parfois surprenantes et intelligentes qui prendraient des heures, des jours ou des semaines à des peintres physiques ou à des artistes numériques. La génération d'images à partir d'invites de texte est aujourd'hui une réalité via des générateurs d'images d'intelligence artificielle en ligne gratuits comme DALL-E, d'OpenAI, la même société de la Silicon Valley qui a créé ChatGPT. Vous pouvez imaginer une idée et décrire un style de peinture et ce service Web vous envoie comme par magie un tas de différentes variantes de tentatives pour capturer votre idée.

Une invite DALL-E indiquant "veuillez dessiner un groupe diversifié de personnes pleurant sur le pont de Brooklyn dans un style aquarelle" suivie de 4 images produites par le générateur d'images
Exemple d'interaction avec le générateur d'images DALL-E.

C'est une réalité aujourd'hui, et c'est aussi une réalité aujourd'hui que ChatGPT4 peut écrire des essais approfondis, réfléchis et approfondis sur presque tous les sujets sur lesquels on les interroge - des essais qui pourraient être assez bons pour obtenir des diplômes universitaires avancés.

Il est peut-être trop tôt pour faire une prédiction comme celle-ci, mais il semble que les chatbots intelligents et les générateurs d'images - l'écriture générée par la machine et l'art généré par la machine - représentent une innovation technologique majeure et une innovation sociétale majeure qui nous affectera tous sur terre d'une manière. ou un autre. Qui sait dans quelle direction l'avenir va ces jours-ci, mais il semble au moins possible que le lancement de ChatGPT3 en 2022 restera un jour dans les mémoires comme un moment important de l'histoire culturelle similaire au lancement du navigateur Mosaic en 1993, qui a lancé l'ensemble du populaire Boom d'Internet dans lequel nous vivons encore aujourd'hui.

Il semble également possible, je suis troublé de le dire, que cette nouvelle innovation causera de nouveaux types de problèmes majeurs auxquels nous devrons tous faire face, même si beaucoup d'entre nous peuvent avoir le sentiment que notre société se noie déjà dans les séquelles indésirables de d'autres innovations technologiques que nous n'avons pas demandées dans nos vies, que nous n'avons pas invitées dans nos vies, et pourtant qui sont de toute façon dans nos vies.

Je veux passer cet épisode à parler de la façon dont l'IA nous affecte en tant qu'activistes anti-guerre. Permettez-moi de dire ceci dès le départ : l'IA est un sujet brûlant, très controversé, et c'est comme il se doit. Nous devrions nous en préoccuper et nous devrions en parler, et à mon avis, nous devrions également ouvrir nos esprits au bien que cette technologie peut faire.

C'est controversé parmi les progressistes et les militants et c'est controversé pour tout le monde. Cela devrait être controversé, et je ne fais pas cet épisode parce que j'ai des réponses faciles sur la façon dont ces récentes innovations peuvent avoir un impact sur notre planète. Je sais qu'ils auront un impact sur notre monde, et je sais que les militants anti-guerre doivent en parler. Je fais donc cet épisode pour lancer la conversation, pour exposer les différents problèmes avec lesquels, je pense, de nombreux militants anti-guerre sont probablement aux prises lorsqu'ils parlent de ce sujet, et peut-être pour exprimer une certaine compréhension de tous les aspects de cette perplexité questions. C'est ce que je vais essayer de faire ici - et lorsque vous aurez fini d'écouter cet épisode, n'hésitez pas à partager vos commentaires sur notre world beyond war page web pour cet épisode, ou en me contactant directement – ​​je suis facile à trouver.

En termes d'impact sur la vie quotidienne, beaucoup se demandent si les incroyables capacités de l'intelligence artificielle mettront beaucoup de gens au chômage. C'est souvent la première préoccupation qui se pose aux gens lorsqu'ils voient la puissance de l'IA. Ces capacités avancées feront-elles que divers secteurs d'emplois et d'efforts humains sains deviendront soudainement indésirables ? Notre société est déjà très déséquilibrée en termes de qui travaille, qui gagne et qui dépense. Si les écosystèmes de travail pour vivre de la classe moyenne sont encore plus perturbés parce que l'IA peut effectuer plusieurs des mêmes tâches mieux et gratuitement, nous pouvons être sûrs que la perturbation augmentera le fossé entre les riches et le reste d'entre nous, que le 1 % pourront bénéficier du changement tandis que le reste d'entre nous devra faire face aux conséquences, et que les 1 % rendront également les outils d'IA qui aident les 1 % indisponibles pour les personnes qui pourraient utiliser leur aide, ou trop chers pour leur permettre d'accéder.

Avouons-le, dans les économies capitalistes prédatrices dans lesquelles beaucoup d'entre nous sont coincés, le chômage signifie s'endetter et perdre notre liberté de choix, et c'est exactement ce que ces économies forteresses sociopathes sont conçues pour faire aux gens ordinaires - nous enlever notre pouvoir choix et nous faire payer et travailler pour eux. C'est la vision future du capitalisme de forteresse aujourd'hui : nous aurons des ordinateurs nouvellement intelligents et puissants, car nous sommes nous-mêmes paupérisés.

Il y a aussi le fait que la police et l'armée commencent déjà à utiliser des outils d'intelligence artificielle, ainsi que des robots nouvellement puissants et violents. Je pense que c'est peut-être la menace la plus grave et la plus immédiate que présente AI en ce moment, et je pense que les mouvements de protestation assiégés par la police comme, disons, l'important mouvement Stop Cop City à Atlanta en Géorgie, font déjà face à cette nouvelle réalité. Les systèmes d'IA portent les préjugés et les valeurs codées de leurs créateurs humains, de sorte que la police ou l'armée formée par l'IA menace de devenir de véritables machines de chasse et de mise à mort pour les populations vulnérables, choisissant leurs cibles en fonction de leur apparence ou de leur race. Dans un monde qui fait déjà rage avec la guerre de l'Ukraine au Yémen, l'idée d'habiliter une partie ou l'autre - et, inévitablement, les deux parties - avec de nouveaux types de machines à tuer et de régimes de répression codés avec un profilage racial vicieux est aussi horrible que ça sonne.

Les pires scénarios de chômage de masse ou d'intelligence artificielle à code racial utilisés par la police et les forces militaires sont horribles, et nous ne pouvons pas dormir là-dessus car les effets sont déjà dans notre monde. C'est déjà en train de se produire. Alors commençons simplement cette conversation en reconnaissant que deux des horreurs distinctes que l'IA avancée semble présenter - le chômage de masse et les abus de la police et des forces militaires - sont deux manières différentes par lesquelles des forces puissantes de richesse et de privilèges enracinés volent les droits et les libertés du peuple. .

En parlant de richesse et de privilèges bien ancrés, parlons d'OpenAI, une société du nord de la Californie que vous pouvez trouver en ligne sur OpenAI.com. Cette société était peu connue jusqu'à ce qu'elle lance le générateur d'images DALL-E en 2021, puis en novembre 2022, il y a à peine neuf mois, elle a sorti son premier chatbot public, ChatGPT3, rapidement suivi par les plus puissants et capables ChatGPT3.5 et ChatGPT4 , les versions disponibles maintenant.

J'ai été assez assommé quand j'ai vu pour la première fois les images que DALL-E pouvait créer, et j'ai été encore plus assommé la première fois que j'ai essayé ChatGPT. Le défi que ces outils tentaient de relever m'était très familier, car j'ai moi-même étudié intensivement l'IA, comme l'ont fait de nombreux développeurs de logiciels. Ma première rencontre avec l'intelligence artificielle était un projet d'étude indépendant que j'ai fait à l'université, il y a quelques décennies.

C'était dans les années 1980, et peut-être que certains très jeunes seront surpris d'apprendre que des gens comme moi travaillaient sur l'IA dans les années 1980, mais le terme intelligence artificielle est presque aussi vieux que la révolution informatique elle-même. Même si les réalisations de l'IA des années 1950 aux années 1990 étaient infantiles par rapport aux progrès que nous avons vus depuis lors.

Le domaine était si ouvert dans les années 80, en fait, que j'ai pu obtenir quelques crédits au cours de ma dernière année en tant que majeure combinée en philosophie et en informatique en préparant un projet d'étude indépendant original pour un programme qui analyserait phrases en anglais et répondre d'une manière qui démontre ou simule la compréhension de base. J'ai codé en LISP sur un terminal Unimatic vert hilarant et volumineux connecté à un énorme ordinateur central Univac qui avait la taille d'un grand bâtiment et avait probablement moins de puissance que le MacBook sur lequel j'enregistre ce podcast en ce moment, parce que c'est comme ça que nous avons roulé retour dans les années 80.

Le défi passionnant de mon projet d'étude indépendant sur l'IA était d'analyser et de répondre à des phrases contenant des verbes et des noms simples. Par exemple, je taperais des phrases comme "J'ai un chat nommé Happy" et "mon chat est orange" et "tous les chats disent miaou" dans mon programme LISP, ce qui démontrerait une certaine compréhension en répondant à des questions comme "Happy est-il orange?" ou « est-ce que le chat de Marc dit miaou ? ». Curieusement, j'essayais de créer un chatbot IA sur mon ordinateur central Univac.

Je parie que beaucoup d'autres étudiants essayaient de faire la même chose à l'époque, mais aucun d'entre nous n'est allé très loin, car nous étions dans les années 1980 et une idée brillante clé ne nous était pas encore parvenue : le réseau de neurones, qui fournit un logiciel structure conçue pour effectuer des opérations simples massivement parallèles similaires aux neurones du cerveau humain. Alors que mon programme LISP fournissait un calcul à un seul thread et que les programmes Fortran, COBOL et Pascal suivaient le même paradigme limité à un seul thread, les réseaux de neurones fournissaient des threads élémentaires parallèles qui effectuaient des calculs simples en parallèle. Le cerveau humain fait beaucoup de traitement parallèle - des opérations simultanées en cascade pour former des illusions de singularité - et la structure logicielle connue sous le nom de réseau neuronal permettrait aux codeurs de glaner la puissance de ce traitement parallèle - après avoir obtenu mon diplôme universitaire.

Avec le concept de réseau de neurones est finalement venu le concept de formation d'un réseau de neurones avec des activités répétitives - un autre concept qui ne nous était pas encore parvenu dans les années 80. J'alimentais mon programme LISP avec un petit nombre de phrases complètes, et je ne lui donnais aucun retour pour corriger et améliorer ses performances. Ce que j'aurais dû faire, au lieu de taper des phrases dans mon terminal informatique, c'était de lui fournir des livres entiers, des journaux et des encyclopédies, et d'interagir constamment avec lui pour fournir des commentaires sur son comportement alors que mon programme tentait à plusieurs reprises de simuler les actes les plus élémentaires et primitifs. de compréhension. En lui donnant beaucoup de matériel de lecture pour constituer une base de connaissances riche et complexe et en l'entraînant de manière répétitive et approfondie, j'aurais peut-être fait en sorte que mon programme informatique dise quelque chose de surprenant sur le fait que j'avais ou non un chat orange. Il s'avère que les réseaux de neurones et la formation répétitive ont ouvert la voie aux simulations réussies de l'intelligence humaine que nous voyons aujourd'hui avec les chatbots.

Vous remarquerez que je parle de simuler l'intelligence humaine. Cela pointe vers une autre controverse. Certaines personnes trouvent le terme "intelligence artificielle" ridicule. Pire que ridicule, certains trouvent l'idée troublante sur le plan éthique car, si l'intelligence engendre la conscience, l'intelligence artificielle peut se transformer en conscience artificielle - sensibilité artificielle, volonté artificielle, droit artificiel d'exister. Cela soulève certainement de nombreuses questions existentielles. Toutes ces questions sont valables et importantes. Certains se demandent si les moteurs de connaissance de l'IA et les modèles de langage pourraient déjà développer la conscience. Personnellement, je trouve assez facile de déclarer que non, nous n'avons pas à nous soucier du fait que les chatbots développent de véritables sentiments. Il y a beaucoup d'aspects différents de l'IA dont il faut s'inquiéter, et ce n'est pas celui dont je m'inquiète personnellement. Mais cela ne veut pas dire que je peux prouver que j'ai raison et que personne ne devrait s'en inquiéter. Peut-être que je suis tellement submergé par différentes choses dont je devrais m'inquiéter que je n'ai pas le temps de m'occuper de celle-ci. Je n'ai pas de réponse définitive à toutes les questions qui peuvent se poser sur les questions de la sensibilité des machines, et je ne vais pas prétendre que j'en ai. Mais je sais quelles sont les questions auxquelles nous devons trouver comment faire face.

Une opinion que j'entends parfois au sein des communautés militantes est que l'IA équivaut à un tas de battage médiatique - une illusion entretenue par les excellentes compétences conversationnelles d'un grand modèle linguistique. Bien sûr, GPT peut analyser une question et répondre dans une phraséologie élégante, mais pourquoi cette félicité avec le langage nous ferait-elle imaginer que des progrès significatifs ont été réalisés ? Google et Wikipédia ont déjà rendu l'ensemble des connaissances humaines facilement accessible gratuitement sur Internet, au grand dam de l'Encyclopedia Britannica. Nous entendons tout ce battage médiatique à propos de ChatGPT simplement parce qu'il présente une façade linguistique de la conscience humaine, une illusion pour laquelle nous tombons tous avec tant d'empressement. Je pense qu'il y a une certaine validité ici. Peut-être que si Google ou Wikipédia s'étaient lancés à l'origine de la manière soudaine et entièrement formée de ChatGPT, nous parlerions peut-être du lancement de Google ou de Wikipédia comme d'avancées massives dans l'intelligence humaine collective, car les deux ont déjà eu un impact sur notre monde.

Pourtant, comme je l'ai mentionné plus haut lorsque j'ai parlé des réseaux de neurones et de la formation, décrire les grands modèles de langage comme des façades, c'est sous-estimer les couches de structure logicielle qui doivent exister pour rendre cette félicité linguistique possible.

Voici une question plus importante, à mon avis : examinons l'éthique d'OpenAI et de ses directeurs, fondateurs, investisseurs et partenaires. Il y a tout un tas de problèmes ici.

OpenAI.com est un laboratoire de recherche financé par des fonds privés émergeant du même écosystème d'incubateurs technologiques ultra-riches et dynamiques de la Silicon Valley qui nous a donné Facebook, Google, Microsoft, Amazon et Oracle. Ses fondateurs incluent Elon Musk, le célèbre milliardaire dont les remarques publiques sociopathes me rendent vraiment malade à peu près autant qu'elles rendent malade beaucoup d'autres personnes. Elon Musk n'a jamais été directement impliqué dans OpenAI, et il est passé à d'autres choses comme afficher sa personnalité offensive partout sur les réseaux sociaux, c'est donc tout ce que je veux dire sur Elon Musk aujourd'hui.

De mon point de vue, il est encore plus accablant qu'OpenAI soit étroitement impliqué avec Microsoft, un important profiteur de guerre et un important profiteur dans le domaine de l'intelligence artificielle pour la guerre. Cette association troublante est ce dont j'espère que les gens s'inquiéteront, encore plus que la connexion Elon Musk. Nous devrions être très troublés que le visage amical de DALL-E et d'OpenAI soit une façade utile pour au moins un profiteur de guerre massivement influent et diabolique, Microsoft, qui développe déjà les types d'applications d'intelligence artificielle militaires et policières à code racial dont nous avons parlé. environ ci-dessus. Cela se produit déjà dans les coulisses de Microsoft et d'autres géants américains de la technologie qui sont profondément liés à la machine de guerre américaine. Et c'est la pire nouvelle à laquelle je puisse penser.

Soldat portant un casque lourd avec des lunettes et des câbles
Le casque de réalité augmentée Hololens de Microsoft est utilisé par l'armée américaine

Nous, dans le mouvement anti-guerre, ne pouvons pas tourner le dos à l'intelligence artificielle à cause de son potentiel maléfique. Je ne veux pas dire bien sûr que tout le monde dans le mouvement anti-guerre doit permettre les empiétements technologiques dans sa propre vie. Je suis heureux que de nombreux progressistes et militants fassent un choix valable pour éviter les innovations technologiques à la mode dans leur vie. Je peux comprendre et respecter cette attitude, même si je suis moi-même loin d'avoir un style de vie sans technologie. La technologie est mon domaine, ma carrière et, en tant que technologue, je suis fasciné par le génie, la créativité et l'innovation derrière des projets comme l'intelligence artificielle.

De plus, simplement en tant que personne curieuse, je suis absolument intéressé à mieux comprendre l'intelligence humaine en apprenant comment les ordinateurs ont été conçus pour la simuler. J'autorise également ChatGPT dans ma vie parce que j'ai découvert à quel point il est utile. Je vais sur OpenAI.com et je lui pose constamment des questions. J'utilise ChatGPT pour écrire du code, y compris Javascript pour une nouvelle version de notre carte interactive des bases militaires étrangères américaines sur laquelle je travaille cet été avec d'autres personnes à World Beyond War.

Disons que je veux nettoyer un paramètre de chaîne de requête en supprimant les caractères spéciaux avec une expression régulière, ce que j'aurais utilisé pour demander à Stack Overflow, et je reconstituerais mon code de travail à partir de fragments recommandés publiés sur un fil de conversation . Au lieu de cela, je dis maintenant à ChatGPT ce que je veux, et ChatGPT crache simplement du Javascript parfaitement formaté, exécutable et sans erreur. La plupart de mes amis développeurs de logiciels utilisent ChatGPT pour écrire du code maintenant - je sais que nous le faisons parce que nous aimons en parler. Je ne pense pas qu'aucun d'entre nous, codeurs, ne s'inquiète encore que ChatGPT nous remplace, car c'est nous qui devons assembler les morceaux de code pour créer des systèmes fonctionnels, et GPT ne fait que produire des morceaux de code. Mais je me demande comment cela va changer la façon dont les développeurs de logiciels travaillent. Cela change certainement déjà la donne.

J'utilise également ChatGPT pour rechercher des éléments en ligne comme j'aurais utilisé Google, et je l'utilise pour des invites, des perspectives et des informations générales sur des éléments sur lesquels j'écris ou auxquels je pense. Je ne plaisante pas quand je dis que je l'utilise pour tout - comme lorsque j'ai mentionné ci-dessus le philosophe de la technologie des années 1960, Marshall McLuhan, bien sûr, j'ai demandé à ChatGPT des informations sur Marshall McLuhan, et c'est ChatGPT qui m'a dit que 1964 était l'année où il a publié le livre qui disait « le médium est le message ».

Le fait que tant d'entre nous soient déjà passés de Google à GPT pour les recherches Internet de base en dit long. Il est très facile de commencer à permettre à ces nouveaux types d'outils d'entrer lentement et imperceptiblement dans nos vies, même si nous nous inquiétons des implications et des motivations qui les sous-tendent.

Comme la technologie logicielle sous-jacente d'Internet elle-même, qui a été créée pour des raisons douteuses par l'armée américaine mais qui a provoqué des changements sociétaux et trouvé de nouveaux cas d'utilisation qui étaient complètement en dehors du domaine de son objectif initial, cette nouvelle technologie va trouver son propre chemin pour avoir un impact sur nos vies. Cette nouvelle technologie est réelle, elle fonctionne trop bien pour être ignorée, et elle est là pour rester. Encore une fois, c'est pourquoi je passe un épisode à en parler aux militants anti-guerre - parce que cela fait déjà partie de notre réalité, et nous pourrions avoir besoin de certains des pouvoirs si nous les offrons afin de faire notre propre travail ici sur terre.

Passons une minute à réfléchir aux nombreux aspects de la vie sur cette planète qui n'ont pas les terribles problèmes dont nous, les militants anti-guerre, sommes si conscients. Arts, musique, littérature, biologie, chimie, physique, géologie, astronomie, médecine, santé, fabrication, agriculture, nutrition. Dans tous ces mondes, tous ces efforts… le lancement public d'un chatbot de connaissances générales très performant a un impact majeur. Il n'y a pas de champ qu'il ne touche pas.

Sur le plan de la coexistence humaine pacifique - un plan sur lequel j'aimerais pouvoir passer plus de temps à exister sur moi-même - l'intelligence artificielle est une avancée miraculeuse des capacités humaines qui promet des avantages majeurs. Si seulement nous vivions dans un monde pacifique, sûr et équitable, nous pourrions mieux profiter ensemble des merveilles que peut produire l'intelligence artificielle.

Nous voyons certaines de ces merveilles lorsque nous travaillons avec un générateur d'images et créons des images incroyablement intelligentes ou créatives basées sur nos propres invites que nous ne serions pas en mesure de produire autrement. Nous ressentons également le paradoxe de savoir si oui ou non les outils d'intelligence artificielle peuvent être utilisés pour de bon. En tant que technophile, je crois que ce n'est pas l'innovation technologique qui est le problème sur la planète Terre au 21e siècle. J'accueille toujours favorablement l'innovation technologique, et je pense que les dangers que présente l'IA sont dus au capitalisme enraciné et à la guerre - au fait qu'il s'agit d'une planète en guerre contre elle-même, une planète dominée par 1 % de riches qui ne peuvent s'empêcher de se mettre la voie suicidaire de la construction de sociétés forteresses militarisées qui suppriment d'autres êtres humains pour maintenir leurs privilèges. Ce que nous devons faire, c'est guérir notre société - ce que nous n'avons pas besoin de faire, c'est de fuir les avancées technologiques parce que nous comprenons mal les causes de notre agonie et de notre trajectoire suicidaire.

C'est ce que je pense. Bien sûr, ce n'est pas ce que pensent tous les militants anti-guerre, et ce n'est pas grave. Nous avons eu des réactions intéressantes sur World Beyond War liste de discussion par e-mail - qui est un forum vivant et intelligent que je recommande à tous de rejoindre, il suffit de cliquer sur le lien sur notre site Web ou de rechercher world beyond war liste de discussion - après que quelqu'un a partagé des images anti-guerre vraiment imaginatives qui avaient été générées avec DALL-E, et que quelqu'un d'autre a partagé des mots étonnamment utiles sur la façon dont notre planète malade peut trouver des chemins vers la paix mondiale.

Je crois que les activistes doivent maîtriser toutes les technologies disponibles - que l'activisme ne doit pas se mettre dans la position d'être moins capable d'utiliser des technologies innovantes avancées que les gouvernements corrompus et les entreprises avides qui ont l'habitude de nous opprimer.

Je pense également que nous pouvons également glaner des vérités philosophiques surprenantes sur la conscience humaine et l'existence humaine en étudiant les algorithmes et les modèles de conception utilisés pour la modéliser et la simuler. Le simple fait de passer quelques minutes à s'amuser avec ChatGPT sur le site Web OpenAI peut révéler des vérités folles sur la nature humaine.

Voici une chose sauvage autour de laquelle j'enroule encore mon cerveau. ChatGPT ment parfois. Ça invente des trucs. Vous ne verrez généralement pas cela lorsque vous commencerez à interroger GPT, car il proposera généralement une réponse puissante à la première question dans un fil de conversation. GPT vous suit ensuite lorsque vous posez des questions de suivi, et c'est là qu'il est possible de faire reculer GPT dans un coin où il commence à mentir. L'une des premières questions que j'ai posées à ChatGPT a été de me parler des meilleurs podcasts anti-guerre, car, naturellement, mon ego était engagé et je voulais voir si le World Beyond War podcast apparaîtrait sur la liste.

Maintenant, puisque GPT est pré-formé - c'est-à-dire qu'il a été pré-formé et n'est plus activement alimenté avec des nouvelles et des informations très récentes, donc je ne m'attendrais pas à ce qu'il en sache beaucoup sur mon petit podcast. Je ne voulais pas non plus fausser les résultats en montrant à GPT que j'étais intéressé par un podcast en particulier, alors je lui ai demandé s'il y avait d'excellents podcasts anti-guerre et il m'a assuré qu'il y en avait effectivement. J'ai alors commencé à entrer dans les détails, espérant l'inciter à nommer le World Beyond War podcast en demandant - pouvez-vous me parler de podcasts qui ont interviewé des militants bien connus comme Medea Benjamin. C'est là que les choses commencent à devenir drôles. Une fois que le système fait une réclamation, il essaiera de sauvegarder la réclamation, donc après m'avoir assuré qu'il y avait effectivement des podcasts qui avaient interviewé Medea Benjamin, je lui ai demandé de nommer l'un de ces podcasts, et il m'a ensuite dit que Medea Benjamin était l'hôte de son propre podcast. Euh, elle ne l'est pas ! Si elle l'était, je l'écouterais certainement. J'ai réussi à faire mentir ChatGPT en le plaçant dans un coin où il devait fournir des informations qu'il n'avait pas, il a donc composé des informations qui semblaient réalistes.

Cela arrive plus souvent qu'on ne le pense. Vous pouvez également facilement attraper ChatGPT dans une erreur en lui lançant des informations vraies mais contradictoires. Après que GPT m'ait correctement informé que Marshall McLuhan avait introduit la citation "Le médium est le message" en 1964, je me suis souvenu que ce philosophe brillant et pointu avait également écrit une sorte de suite ironique à son livre précédent qui abordait les aspects les plus sombres et les plus troublants. façons dont les médias peuvent endormir les esprits humains, les populations effrayantes du contrôle de la population de masse par les entreprises à travers les médias - parce que Marshall McLuhan était vraiment génial, il a compris ce danger à l'époque dans les années 1960 et a publié un autre livre en 1967 avec l'artiste Quentin Fiore appelé "Le médium est le massage".

Voici donc où les choses sont devenues bizarres avec GPT. J'ai demandé à ChatGPT de me parler de la citation de Marshall McLuhan "le médium est le massage"… et GPT m'a catégoriquement informé que McLuhan n'avait pas dit "le médium est le massage" mais avait plutôt dit "le médium est le message". De toute évidence, GPT pensait que le massage était une faute de frappe. J'ai alors informé GPT que c'était incorrect et que McLuhan avait bien dit à la fois « le médium est le message » et « le médium est le massage ». Dès que j'ai dit cela, ChatGPT a réalisé son erreur et s'est excusé et m'a informé que, oui, "le médium est le massage" était un livre qu'il avait écrit en 1967.

couverture de "The Medium is the Massage" de Marshall McLuhan et Quentin Fiore, 1967

Alors pourquoi s'est-il trompé en premier, et surtout pourquoi s'est-il trompé alors qu'il avait déjà accès à la bonne réponse à sa portée ? Eh bien, c'est là que GPT commence à révéler des vérités surprenantes sur nous-mêmes, car en fait, les deux erreurs ou inconduites de GPT l'ont fait paraître plus humain, pas moins. N'oubliez pas que G dans GPT signifie génératif. Le système est conçu pour générer des réponses lorsqu'il n'est pas sûr de la bonne réponse. Il peut vous indiquer le titre d'un film ou d'un livre qui n'existe pas - mais ce sera un titre qui semble pouvoir exister. Si vous avez une longue conversation ouverte avec ChatGPT sur un sujet que vous connaissez bien, vous le verrez rapidement commencer à faire des erreurs.

La façon dont j'ai pu manœuvrer GPT dans un coin en lui posant des questions de suivi à ses propres réponses, l'amenant finalement à générer des informations apparemment réalistes mais fausses dans une tentative de sauvegarder ses déclarations précédentes ne m'a pas semblé inhumain, mais complètement humain.

Nous voyons ici le pouvoir brutal des styles d'argumentation rhétorique et manipulatrice. Peut-être que ce que nous pouvons apprendre de cette surprenante mauvaise conduite de ChatGPT, c'est qu'il est humainement impossible d'appréhender la vérité sans fabriquer des vérités d'une manière ou d'une autre, et si nous ne faisons pas attention, ces vérités fabriquées que nous utilisons à des fins rhétoriques peuvent devenir des mensonges que nous sommes forcé de défendre avec plus de fabrications. Garçon, cela me semble vraiment réaliste.

Encore plus réaliste : nous savons que le comportement humain de ChatGPT inclut le mensonge. Et pourtant on lui fait confiance ! Je continue même à l'utiliser moi-même, car, vraiment, j'ai assez confiance en moi pour croire que je serai toujours capable de détecter quand GPT cherche une réponse et génère de fausses informations. Hé, peut-être que je me leurre, et peut-être devrais-je penser à ma propre propension à croire des vérités fabriquées, et à ma propre propension à permettre aux autres de mentir.

Voici une façon dont GPT nous rend plus intelligents, en soulignant les façons dont nous nous engageons avec le mensonge et les façades et les mensonges blancs et les tromperies amicales dans nos relations humaines normales. Pour résumer : ChatGPT ne peut pas simuler le comportement humain sans parfois mentir. C'est une sacrée chose à laquelle nous devons tous penser.

Voici une autre chose à laquelle réfléchir : comment nous, les humains, faisons-nous en termes de suivi des innovations technologiques qui définissent nos sociétés ? Au cours des dernières années, nous nous sommes adaptés aux progrès de l'IA en même temps que nous absorbons l'invention de la blockchain, une nouvelle méthode technologique de construction de bases de données partagées avec de nouveaux concepts de propriété, d'accès et de validation. Nous avons fait un épisode précédent sur la blockchain, et je suis personnellement à peu près sûr que la plupart des gens que je connais ne comprennent toujours pas comment la blockchain change nos vies et changera nos vies à l'avenir - et maintenant nous avons un grand langage des modèles et des moteurs de culture générale pour changer nos vies et nos avenirs aussi ! Ajoutez à cela, hmm… où dois-je même aller ici… le projet du génome humain, les vastes progrès de la science du cerveau, l'exploration et la colonisation de l'espace… hé, chers humains, suivons-nous tout cela ?

Maintenant, lançons les différends technologiques et scientifiques sur les pandémies comme le COVID, et ne nous arrêtons pas là, mais continuons à examiner la situation des armes nucléaires largement disponibles entre les mains de soi-disant gouvernements corrompus et incompétents dirigés par des bureaucrates vieillissants, et la politique de destruction mutuellement assurée.

Est-ce que nous suivons cela? Non, mais cette merde nous suit, et elle a notre numéro. Chaque matin, je me réveille et je lis des articles sur la guerre par procuration entre l'OTAN et la Russie qui tue tragiquement les pauvres êtres humains vivant en Ukraine. Et chaque matin, je me demande si c'est le jour où l'incompétence de nos soi-disant dirigeants déclenchera une guerre nucléaire - chaque jour, je me demande si c'est le dernier jour de la vie humaine sur la planète Terre.

C'est l'été chaud de 2023. Il y a un nouveau film intitulé "Oppenheimer" sur le scientifique dont les travaux ont conduit à l'incroyable horreur du meurtre instantané de centaines de milliers d'êtres humains à Hiroshima et Nagasaki au Japon en 1945. Je ne pense pas chacun d'entre nous a déjà réussi à élargir suffisamment son esprit pour comprendre le mal absolu, les vérités choquantes et insupportables des erreurs commises par nos sociétés - et de notre incapacité à nous améliorer et à nous élever de notre pathétique et honteuse dépendance sociétale à la haine de masse et la violence de masse.

J'ai mentionné plus haut que certaines personnes demandent si l'intelligence artificielle peut ou non conduire à la conscience et/ou à la sensibilité - si un système d'IA peut jamais développer des émotions et des sentiments, et ce que ces mots et ces questions signifient même. Je n'ai pas encore vu le film Oppenheimer, et je me sens assez écœuré à l'idée d'un film sur les meurtres de masse au Japon qui ne montre pas les visages des victimes japonaises. Au lieu de se demander si les systèmes d'IA sont sensibles ou non, tout ce que je veux dire, c'est que chaque personne incinérée à Hiroshima et Nagasaki était sensible et consciente. C'est une vérité à laquelle je ne pense pas que nous ayons encore réussi à faire face. Peut-être devrions-nous former un peu plus nos propres esprits sur celui-ci.

Et c'est là que nous terminons aujourd'hui. Les humains ne peuvent pas gérer la vérité sur les problèmes que nous avons créés et les changements que nous devons apporter pour nous améliorer. Les robots ne peuvent pas non plus gérer la vérité. Merci de partager cet espace avec moi alors que je réfléchis aux mystères et aux ironies de l'existence humaine, et je vais nous emmener avec la voix humaine d'une chanteuse et compositrice que j'aime depuis longtemps, Sinead O'Connor, et une chanson intitulée Healing Room. Merci d'avoir écouté l'épisode 50. Je vous reverrai bientôt pour le 51.

World BEYOND War Podcast sur iTunes
World BEYOND War Podcast sur Spotify
World BEYOND War Podcast sur Stitcher
World BEYOND War Podcast Flux RSS

Soyez sympa! Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *

Articles Relatifs

Notre théorie du changement

Comment mettre fin à la guerre

Festival du film WBW 2024
Événements anti-guerre
Aidez-nous à grandir

Les petits donateurs nous permettent de continuer

Si vous choisissez de faire une contribution récurrente d'au moins 15 $ par mois, vous pouvez sélectionner un cadeau de remerciement. Nous remercions nos donateurs récurrents sur notre site Internet.

C'est votre chance de réinventer un world beyond war
Boutique WBW
Traduire dans n'importe quelle langue