Avez-vous vu la vidéo circulant en ligne montrant un chien robot tirant avec un fusil d’assaut ?1 Les images du chien robot marchant et tirant sur diverses cibles avec un fusil attaché à son dos sont effrayantes, mais montrent probablement un « jouet dangereux bricolé par un gars russe en démarrage d’hoverbike », selon The Verge.2
L’affiche vidéo YouTube, Alexander Atamanov, a déjà publié des photos de lui jouant avec ce qui semble être le même chien robot, sans fusil et semble avoir un penchant pour l’équipement militaire. « Il semble beaucoup plus probable qu’il ait giflé quelques-uns de ses intérêts ensemble, et moins probable qu’il poursuive sérieusement une arme de guerre », a noté The Verge.3
Cependant, bien que ce robot-chien armé particulier ne soit pas alarmant, il existe des chiens robots avec des armes à feu, et ils sont un avertissement inquiétant de ce à quoi pourraient ressembler les futurs scénarios de combat. Dans le pire des cas, les chiens robots meurtriers pourraient également être facilement utilisés pour imposer la peur et maintenir le contrôle sur une population civile :4
« Le monde se rend progressivement compte que la technologie existe déjà pour transformer les robots en armes mortelles, et la pensée vraiment effrayante est qu’ils pourraient commencer à tuer de manière autonome, s’ils n’ont pas déjà commencé. Cela semble presque inévitable à ce stade, chien ou non.
En voyant la vidéo du chien robot tueur, l’écrivain politique James Melville a tweeté: « Les horloges sonnent maintenant treize », faisant référence au roman dystopique de George Orwell « 1984 ».5
Les robots quadrupèdes et les systèmes d’armes sans pilote sont là
La société de solutions Warfighter Sword Defense Systems a lancé son fusil sans pilote à usage spécial, ou SPUR, en octobre 2021.6 Conçu pour offrir un tir de précision à partir de robots ou de « plates-formes sans pilote », y compris le quadrupède Vision-60 de Ghost Robotics, qui ressemble à un chien, SPUR contient des capteurs spéciaux qui lui permettent d’être tiré dans des conditions variées, y compris la nuit.
« Le SWORD Defense Systems SPUR ™ est l’avenir des systèmes d’armes sans pilote, et cet avenir est maintenant », écrit la société sur sa page Web.sept Le quadrupède Vision-60, quant à lui, est un robot ressemblant à un chien présenté comme un «drone terrestre tout temps destiné à être utilisé dans un large éventail d’environnements urbains et naturels non structurés pour des applications de défense, de patrie et d’entreprise», selon Ghost Robotics.8 La société a expliqué :9
« Même si l’environnement est complètement inconnu, les capteurs de vision se dégradent ou échouent, vous pouvez être assuré que lorsque notre robot à pattes échouera, glissera ou tombera, il se relèvera immédiatement et continuera à se déplacer. Notre objectif est de faire de nos Q-UGV un outil indispensable et de repousser continuellement les limites pour améliorer sa capacité à marcher, courir, ramper, grimper et éventuellement nager dans des environnements complexes dans lesquels nos clients doivent évoluer jour après jour.
Ghost Robotics déclare avoir plus de 25 clients de la sécurité nationale et avoir expédié plus de 200 robots à ce jour.dix Il s’est associé à des entreprises du secteur de la défense ainsi qu’à AT&T, Verizon, Amazon et Honeywell, entre autres.11
Il est facile de voir comment ces robots chiens autonomes pourraient rapidement être déployés non seulement à des fins de surveillance et de défense, mais également pour des manœuvres offensives. « Les détails sur le partenariat entre Ghost et Sword ne sont pas clairs », a noté The Verge, « mais les robots quadrupèdes de Ghost sont déjà testés par l’armée américaine. »12
Pourquoi un fabricant de robots interdit les armes
Boston Dynamics, qui fabrique une variété de robots quadrupèdes, y compris le célèbre Spot, a résolu certains des inévitables problèmes de confidentialité, de droits civils et de sécurité qui accompagnent une telle technologie. Contrairement à de nombreux autres fabricants de robots, ils ont interdit la militarisation de l’une de leurs machines.
L’un de leurs principes éthiques stipule: «Nous n’autoriserons ni ne nous associerons à ceux qui souhaitent utiliser nos robots comme armes ou systèmes de ciblage autonomes. Si nos produits sont utilisés à des fins nuisibles, nous prendrons les mesures appropriées pour atténuer cette mauvaise utilisation.13 De plus, alors qu’ils déclarent qu’ils travailleront avec le gouvernement, les clients commerciaux et publics, ainsi qu’avec les législateurs, ils déclarent qu’ils s’engagent à se conformer aux lois sur la confidentialité et les droits civils :14
« Nous n’autoriserons ni ne nous associerons à ceux qui souhaitent utiliser nos robots d’une manière qui viole les lois sur la vie privée et les droits civils. Nous comprenons que les technologies émergentes d’intelligence artificielle, y compris la vision par ordinateur et les algorithmes d’identification personnelle, soulèvent des questions sur l’éthique, la légalité et le potentiel de partialité entourant leur utilisation dans la sphère publique.
Pourtant, ils croient que la prochaine génération de robots sera des partenaires qui « travailleront entre nous », créant des partenariats homme-robot.15 En ce qui concerne les robots tueurs, autrement connus sous le nom de systèmes d’armes autonomes létaux, ou LAWS, le gouvernement américain est à bord avec eux. Selon le Service de recherche du Congrès au 1er décembre 2020 :16
« La politique américaine n’interdit pas le développement ou l’emploi de LAWS. Bien que les États-Unis n’aient pas actuellement de LAWS dans leur inventaire, certains hauts responsables militaires et de la défense ont déclaré que les États-Unis pourraient être contraints de développer des LAWS à l’avenir si des adversaires américains potentiels choisissaient de le faire.
Dans le même temps, un nombre croissant d’États et d’organisations non gouvernementales lancent un appel à la communauté internationale pour réglementer ou interdire les LAWS en raison de préoccupations éthiques.
Quatrième révolution industrielle : les robots remplacent les travailleurs humains
La première révolution industrielle, qui a eu lieu du début au milieu des années 1800, a introduit l’utilisation de la vapeur dans le monde entier. La deuxième révolution industrielle a eu lieu de la fin du XIXe au début du XXe siècle et a impliqué des progrès dans les industries sidérurgique, électrique et automobile.17
La troisième révolution industrielle, selon Klaus Schwab, fondateur et président exécutif du Forum économique mondial (WEF), « a utilisé l’électronique et les technologies de l’information pour automatiser la production », tandis que la quatrième révolution industrielle, dit-il, a déjà commencé et « se caractérise par une fusion de technologies qui brouille les frontières entre les sphères physique, numérique et biologique.18
C’est la poursuite de l’émergence de l’intelligence artificielle (IA) et de l’intégration avec les humains, et l’utilisation de robots d’une manière qui n’a jamais été vue auparavant, ou même imaginée dans certains cas.
Kai-Fu Lee, auteur du livre « AI Super-Powers: China, Silicon Valley, and the New World Order » et ancien cadre de Google China, a déclaré qu’il pensait qu’il y aurait un déplacement rapide des emplois à mesure que les robots remplaceraient les travailleurs, et dans les 10 prochaines années, tant d’emplois seront remplacés que les gens devront trouver le bonheur sans travailler.19 Amazon a également déclaré que les entrepôts d’expédition entièrement automatisés, dans lesquels les robots remplaceront les humains qui remplissent les commandes, pourraient n’être que dans 10 ans.20
Dans le cadre de son Sommet sur la réinitialisation de l’emploi, le WEF a également déclaré que 50 % des employés devront se reconvertir d’ici 2025, « alors que la « double perturbation » des impacts économiques de la pandémie et de l’automatisation croissante qui transforme les emplois s’installe ».21 Le WEF affirme que 85 millions d’emplois pourraient être supprimés d’ici 2025, tandis que 97 millions supplémentaires pourraient être créés pour répondre à « la nouvelle division du travail entre les humains, les machines et les algorithmes ».
Mais la réalité est que seule une fraction de la population trouverait probablement du travail dans ce monde robotique et piloté par l’IA, ce qui nécessiterait l’introduction d’un revenu de base universel.
Cela peut initialement sembler une bonne chose, mais lorsque votre capacité à gagner un revenu indépendant est détruite, vous devenez dépendant et à la merci de l’élite qui contrôle ce revenu et les ressources qui l’entourent. L’annulation universelle de la dette pourrait également émerger – en échange de la perte de tous les droits de propriété privée à l’avenir. Apportez des chiens robots armés et vous avez une recette pour la tyrannie.
Problèmes de déshumanisation numérique
De nombreuses applications robotiques passionnantes sont en préparation, dont beaucoup pourraient avoir un impact positif sur la société. Par exemple, un robot à quatre pattes créé par Boston Dynamics a été testé dans une salle d’urgence de Boston, menant des entretiens de triage avec des personnes au lieu d’un médecin humain.22,23
La plupart ont déclaré que l’expérience était similaire à une visite en personne et ont même exprimé leur ouverture aux robots prenant des écouvillons nasaux, insérant des cathéters, prélevant du sang et plus encore.
L’équipe travaille actuellement sur des robots plus petits qui seraient capables d’interagir avec des patients en dehors d’un cadre hospitalier typique, comme dans une ambulance ou un hôpital de campagne, ainsi que sur le développement de capteurs qui pourraient prendre les signes vitaux à distance.24 Cependant, l’utilisation de robots peut avoir des conséquences importantes, conduisant à une déshumanisation numérique.
Selon la coalition Stop Killer Robots, la technologie devrait être utilisée pour l’autonomisation, et non pour réduire les humains à « un modèle de 1 et de 0 ».25 En plus de travailler pour s’assurer que les humains gardent le contrôle de l’usage de la force, ils demandent que le droit international soit développé sur l’autonomie dans les systèmes d’armes. Sans action, la coalition estime que l’engagement moral et les règles juridiques existantes sont en danger, à mesure que la déshumanisation numérique se développe :26
« Les machines ne nous voient pas comme des personnes, juste un autre morceau de code à traiter et à trier. Des maisons intelligentes à l’utilisation de chiens robots par les forces de l’ordre, les technologies d’intelligence artificielle et la prise de décision automatisée jouent désormais un rôle important dans nos vies. À l’extrémité du spectre de l’automatisation se trouvent les robots tueurs.
Les robots tueurs ne font pas qu’apparaître, nous les créons. Si nous permettons cette déshumanisation, nous aurons du mal à nous protéger de la prise de décision mécanique dans d’autres domaines de notre vie. Nous devons interdire les systèmes d’armes autonomes qui seraient utilisés contre des personnes, pour empêcher ce glissement vers la déshumanisation numérique.
L’ingénieur affirme que l’ordinateur de l’IA a atteint la sensibilité
À mesure que l’IA et la robotique progressent, les humains se déplacent vers un territoire inexploré, où les frontières entre les humains et les machines deviennent floues. Selon l’ingénieur Google Blake Lemoine, une application de chatbot basée sur l’intelligence artificielle appelée LaMDA, abréviation de Language Model for Dialogue Applications, a atteint la sensibilité, ou conscience de soi indépendante.27
Google a rejeté les réclamations de Lemoine et l’a placé en congé administratif payé pour violation de la confidentialité, mais il reste beaucoup de débats sur la question de savoir si l’IA peut devenir consciente d’elle-même et évoluer au-delà du contrôle humain. Le potentiel pour le monde de prendre une tournure très sombre, en particulier à la lumière des systèmes d’armes autonomes meurtriers, serait immense, bien que beaucoup pensent que l’IA l’est, et restera probablement, insensible.
Une préoccupation plus urgente, du moins pour le moment, est le développement continu de robots qui sont utilisés pour tuer. Dans ce qui n’est probablement que le début, en 2020, le plus grand scientifique nucléaire iranien, Mohsen Fakhrizadeh, a été assassiné à l’aide d’un « robot tueur » – une mitrailleuse attachée à un instrument robotique équipé d’une IA et de plusieurs « yeux » à caméra, qui fonctionnait via Satellite.28
Des rapports affirment également que des drones armés assistés par l’IA pourraient avoir agi de manière autonome et tué des humains pendant la seconde guerre civile libyenne, en mars 2020.29 Comme cela arrive souvent, les progrès technologiques ont dépassé la capacité des humains à comprendre pleinement leurs répercussions, pour le meilleur ou pour le pire. S’exprimant sur The Verge, Elke Schwarz, qui est affiliée au Comité international pour le contrôle des armes robotiques, a expliqué :30
« Dans mon travail, j’essaie de montrer que l’utilisation de ces types de systèmes est très susceptible d’exacerber l’action violente en tant que choix « plus facile ». Et … les erreurs prévaudront très probablement […] qui ne sera probablement traité qu’après coup.
Laisser un commentaire