« Une dernière remarque : tous les changements mentionnés ci-dessus nous aideront à travailler avec plus de concentration et de clarté dans l'accomplissement de notre mission. Cependant, nous devons également nous concentrer davantage sur notre façon de travailler, de collaborer, de discuter et même d'être en désaccord. Nous avons une culture de discussion ouverte et dynamique qui nous permet de créer des produits étonnants et de transformer de grandes idées en actions. Il est important de préserver cela. Mais en fin de compte, nous sommes un lieu de travail et nos politiques et attentes sont claires : il s'agit d'une entreprise, et non d'un endroit où agir de manière à perturber les collègues ou à les faire se sentir en danger, à tenter d'utiliser l'entreprise comme une plateforme personnelle, ou à se battre sur des questions perturbatrices ou à débattre de politique. En tant qu'entreprise, ce moment est trop important pour que nous nous laissions distraire.
Nous avons le devoir d'être un fournisseur de systèmes d’information objectif et digne de confiance, au service de tous nos utilisateurs dans le monde. Lorsque nous venons travailler, notre objectif est d'organiser l'information mondiale et de la rendre universellement accessible et utile. Cet objectif prime sur tout le reste et j'attends de nous que nous agissions en conséquence », souligne le CEO de l’entreprise dans un récent billet de blog.
La sortie de Sundar Pichai fait suite au licenciement de protestataires contre un contrat de fourniture de services à Israël et ce, même si le CEO de l’entreprise n’en fait pas mention
Ces travailleurs ont organisé un sit-in dans les bureaux de Google à New York et à Sunnyvale, en Californie, pour protester contre le projet Nimbus, un contrat conjoint de 1,2 milliard de dollars conclu entre Google et Amazon pour fournir au gouvernement et à l'armée israéliens des services cloud et d'IA. Google accuse les travailleurs licenciés d'avoir violé les règles de l'entreprise, mais ces derniers nient et affirment que les dirigeants de Google refusent d'entendre leurs plaintes depuis des années.
« Un petit nombre d'employés protestataires sont entrés et ont perturbé deux de nos sites. Le fait d'entraver physiquement le travail d'autres employés et de les empêcher d'accéder à nos installations constitue une violation manifeste de nos règles, et nous mènerons une enquête et prendrons les mesures qui s'imposent. Ces employés ont été mis en congé administratif et leur accès à nos systèmes a été coupé. Après avoir refusé plusieurs demandes de quitter les lieux, les forces de l'ordre ont été engagées pour les expulser afin d'assurer la sécurité des bureaux », déclare un porte-parole de Google à propos des manifestants.
Dans un mémo adressé par la suite à l'ensemble de l'entreprise, Chris Rackow, vice-président de la sécurité mondiale de Google, a annoncé que les employés propalestiniens ont été licenciés mercredi en fin de journée après une enquête interne. « Ils ont occupé des bureaux, dégradé nos biens et entravé physiquement le travail d'autres employés de Google. Leur comportement était inacceptable, extrêmement perturbateur et a fait en sorte que les collègues se sentent menacés », Rackow dans un mémo obtenu. Selon le rapport, le géant de Mountain View a licencié au total 28 employés après l'enquête.
Les employés qui ont manifesté mardi demandaient la condamnation d'Israël et la suspension du projet Nimbus de 1,2 milliard de dollars. Selon les rapports, quelques heures le début du sit-in, la sécurité de Google a commencé à accuser les employés d'intrusion et de perturbation du travail, ce qui a incité certains à partir. D'autres, en revanche, ont juré de rester jusqu'à ce qu'ils soient forcés de quitter les lieux. Neuf employés ont été arrêtés pour violation de propriété. À Sunnyvale, les manifestants sont restés assis dans le bureau du directeur de Google Cloud pendant plus de neuf heures jusqu'à ce que la police les arrête.
Ils portaient des t-shirts sur lesquels on pouvait lire "Googler against genocide" et ont écrit des revendications sur le tableau blanc de Kurian. Selon les rapports, cinq travailleurs de Sunnyvale et quatre de New York auraient été arrêtés mardi. Rackow a déclaré que leur comportement était inacceptable.
Le projet Nimbus est un accord tripartite centre Google, Amazon et l'Israël signé en 2021. Il vise à fournir à l'État hébreu des outils d'IA et des services de cloud computing. Selon les termes de l'accord, Google et Amazon devront mettre en place des sites de cloud locaux en Israël avec un investissement initial de 4 milliards de shekels (1,2 milliard de dollars). Ces sites conserveront les informations à l'intérieur des frontières d'Israël selon des directives de sécurité strictes. Lors de la signature du contrat, le gouvernement israélien a expliqué que le projet Nimbus est un projet phare pluriannuel qui se déroulera en quatre phases.
Cependant, depuis le début, le projet est vivement contesté par un groupe d'employés de Google. Ils ont organisé des sit-in et des manifestations dans les bureaux de l'entreprise à New York et à Sunnyvale, en Californie, y compris un sit-in retransmis en direct devant le bureau du PDG de Google Cloud, Thomas Kurian. La protestation a été organisée par le groupe activiste "No Tech for Apartheid", qui a critiqué la réaction de Google à la guerre entre Israël et le Hamas. Le groupe demande à Google d'arrêter toute collaboration avec l'État hébreu et a dénoncé l'arrestation des neuf manifestants.
Il a publié plusieurs vidéos et a diffusé en direct les manifestations sur son compte X, y compris le moment exact où les employés ont reçu les derniers avertissements et ont été arrêtés par la police. Un porte-parole de la police de New York a déclaré que la manifestation de mardi impliquait environ 50 participants au total et a confirmé que quatre arrestations ont été effectuées. Le département de la sécurité publique de Sunnyvale a déclaré que la manifestation en Californie a regroupé environ 80 participants". Selon les rapports, cinq travailleurs de Sunnyvale et quatre de New York ont été arrêtés lors des manifestations.
Les actions du groupe No Tech For Apartheid ne sont pas sans faire penser à celles des collectifs Pause AI et No AGI
Pause AI et No AGI sont connus comme organisateurs de manifestations devant les bureaux d’entreprises comme Google ou OpenAI. Ces groupes demandent sans détour aux ingénieurs d’entreprises comme OpenAI et Google d’abandonner leurs travaux sur des systèmes d’intelligence artificielle à usage militaire et sur l’intelligence artificielle générale. Motif : les machines peuvent finir par surpasser les humains et les exterminer.
Ces manifestations font suite à la suppression par OpenAI d'une clause de sa politique d'utilisation qui interdit l'utilisation de l'intelligence artificielle à des fins militaires et au début de la collaboration de l’entreprise avec le Pentagone.
Jusqu'au 10 janvier, la page des « politiques d'utilisation » d'OpenAI comprenait une interdiction des « activités présentant un risque élevé de dommages physiques, y compris », plus précisément, le « développement d'armes » et les « activités militaires et de guerre ». Cette interdiction des applications militaires, formulée en termes clairs, semble exclure toute utilisation officielle, et extrêmement lucrative, par le ministère de la défense ou toute autre armée nationale. La nouvelle politique conserve l'injonction de ne pas « utiliser notre service pour vous nuire ou nuire à autrui » et donne comme exemple « le développement ou l'utilisation d'armes », mais l'interdiction générale de l'utilisation « militaire et de guerre » a disparu.
« Plusieurs laboratoires spécialisés en intelligence artificielle et experts se rejoignent : l’IA est susceptible d’exterminer l’humanité », souligne Pause AI sur son site web.
« Je pense qu'une bonne analogie serait la façon dont les humains traitent les animaux. Ce n'est pas que nous détestons les animaux. Je pense que les humains aiment les animaux et ont beaucoup d'affection pour eux. Mais lorsqu'il s'agit de construire une autoroute entre deux villes, nous ne demandons pas la permission aux animaux. Nous le faisons simplement parce que c'est important pour nous. Je pense que, par défaut, c'est le type de relation qui s'établira entre nous et l’intelligence artificielle générale (AGI) », confirme le scientifique en chef d’OpenAI dans un documentaire.
Le développement d’armes aux capacités augmentées à l’intelligence artificielle se poursuit en parallèle de la multiplication des appels à réglementer les usages de l’intelligence artificielle à l’échelle mondiale
L’un des plus récents est celui du Pape François. Ce dernier appelle à un traité international juridiquement contraignant pour réglementer l'intelligence artificielle. Motifs : les algorithmes ne doivent pas être autorisés à remplacer les valeurs humaines et l’humanité doit éviter de tomber dans une dictature technologique qui menace l’existence humaine. Le pape a lancé cet appel dans un message dans le cadre des préparatifs de la Journée mondiale de la paix qui se célèbre tous les 1ers janviers par l’Eglise catholique romaine. Le titre du message, qu’il est de tradition d’envoyer aux dirigeants mondiaux et aux responsables d'institutions telles que les Nations unies, est « L'intelligence artificielle et la paix. »
Le dernier message du Pape s’inscrit dans la continuité du Rome Call for an AI Ethics. Cette initiative du Vatican vise à appeler les intervenants mondiaux à la mise sur pied de normes éthiques plus strictes en matière de développement d’intelligence artificielle. IBM et Microsoft sont les premières entreprises à s’y arrimer, suivis du gouvernement italien et de l’Organisation des Nations Unies pour l’alimentation et l’agriculture.
Le Rome Call For an AI Ethics énonce 6 grands principes : transparence, inclusion, responsabilité, impartialité, fiabilité, sécurité et respect de la vie privée. Grosso modo, ces derniers stipulent que la technologie (l’intelligence artificielle) doit être mise sur pied dans le but de protéger les personnes ; en particulier, les faibles et les défavorisés.
Le Vatican veut s'assurer que les entreprises n'utilisent pas l'intelligence artificielle comme un moyen de collecter des données sans le consentement des individus, puis de les utiliser à des fins commerciales ou politiques.
« Sur le plan personnel, l'ère numérique modifie notre perception de l'espace, du temps et du corps, et sur le plan socio-économique, les utilisateurs sont souvent réduits à des "consommateurs", en proie à des intérêts privés concentrés dans les mains de quelques-uns. Les algorithmes extraient désormais des données qui permettent de contrôler les habitudes mentales et relationnelles à des fins commerciales ou politiques, ce, souvent à notre insu. L'asymétrie par laquelle un petit nombre d'élus savent tout de nous alors que nous ne savons rien d'eux ternit la pensée critique et l'exercice conscient de la liberté », a déclaré le Pape François.
Le Rome Call For an AI Ethics stipule en sus qu’un devoir d’explication doit faire l’objet d’instauration et que les algorithmes basés sur l'intelligence artificielle doivent fournir aux individus des informations sur la manière dont ces derniers ont abouti à leurs décisions afin de garantir qu'il n'y a pas de biais.
Source : Google
Et vous ?
Pour ou contre l'utilisation de l'IA à des fins militaires ? Si pour, à quel degré ou à quelles fins ? Si contre, pourquoi ?
Pensez-vous qu’OpenAI a bien fait de modifier sa politique d’utilisation de ses outils ?Quels sont les avantages et les inconvénients de l’utilisation de l’intelligence artificielle à des fins militaires ?
Comment OpenAI peut-elle garantir que ses outils ne seront pas utilisés pour développer ou utiliser des armes ?
Comment les travailleurs de la technologie peuvent-ils exprimer leurs préoccupations ou leur opposition à des projets militaires impliquant l’intelligence artificielle ?
Êtes-vous surpris de voir des entreprises comme OpenAI ou Google collaborer avec l’armée sur des projets d’IA militaire ?
Êtes-vous surpris de la mise à contribution de l’intelligence artificielle sur les champs de bataille ?
Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ? Partagez-vous les avis selon lesquels elles constituent un indicateur de ce que l’atteinte d’un accord mondial contraignant ne sera pas possible ?
Voir aussi :
Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur