Intelligence artificielle et armes nucléaires

Développer la campagne pour obtenir l'élimination totale des armes nucléaires. Gagner la signature et la ratification du traité sur l'interdiction des armes nucléaires par la France et tous les états du monde
Répondre
Christophe
Site Admin
Messages : 16
Enregistré le : mar. 26 juil. 2022 11:26 pm

Intelligence artificielle et armes nucléaires

Message par Christophe »

Microsoft et OpenAI vont s'occuper des bombes états-uniennes. Nous voilà rassurés. :-?

OpenAI collabore avec les Laboratoires Nationaux américains pour la sécurité nucléaire et la recherche

Source "Services mobiles" le 31 janvier 2025

OpenAI s'associe aux Laboratoires Nationaux des États-Unis pour mener des recherches avancées et renforcer la sécurité des armes nucléaires



  • OpenAI fournit ses modèles AI à 15 000 scientifiques du gouvernement américain.
  • Ces modèles seront utilisés pour diverses initiatives, y compris la sécurité nucléaire.
  • OpenAI s’associe également à Microsoft pour déployer son modèle sur un superordinateur.
OpenAI s’allie au gouvernement américain
Dans une nouvelle avancée majeure, OpenAI a annoncé qu’elle allait fournir ses modèles d’intelligence artificielle de pointe à environ 15 000 scientifiques associés aux laboratoires nationaux américains. Cette initiative marque une nouvelle phase de l’engagement croissant de l’entreprise avec le gouvernement fédéral.

Une collaboration avec Microsoft
En collaboration avec Microsoft, OpenAI déploiera son modèle o1, ou une autre variante de la série « o », sur Venado. Il s’agit du superordinateur récemment dévoilé par le laboratoire national de Los Alamos, alimenté par NVIDIA Grace Hopper.

Des applications variées pour les modèles AI
Selon OpenAI, les chercheurs des laboratoires nationaux de Los Alamos, Lawrence Livermore et Sandia utiliseront cette technologie pour soutenir diverses initiatives. Parmi celles-ci, on compte la protection du réseau électrique national contre les cyberattaques, l’identification de nouveaux traitements et méthodes de prévention des maladies, et l’étude des lois fondamentales de la physique. « La collaboration d’OpenAI avec les laboratoires nationaux américains s’inscrit dans la longue tradition de collaboration entre le gouvernement américain et l’industrie privée pour garantir que l’innovation technologique entraîne des améliorations significatives dans les domaines de la santé, de l’énergie et d’autres domaines critiques », a déclaré l’entreprise.

Un soutien controversé aux armes nucléaires
OpenAI indique également que ses modèles d’intelligence artificielle contribueront à améliorer les travaux liés aux armes nucléaires. En particulier, ils soutiendront un programme axé sur la réduction des risques de guerre nucléaire et la sécurisation des matériaux et armes nucléaires à l’échelle mondiale. Pour l’entreprise, ce soutien est « crucial » pour son « engagement envers la sécurité nationale ». OpenAI précise que ses chercheurs disposant d’une habilitation de sécurité offriront une « examen attentif et sélectif des cas d’utilisation et des consultations sur la sécurité de l’IA ».
Avant cette annonce, le laboratoire national de Los Alamos utilisait déjà ChatGPT pour plusieurs projets. Par exemple, l’un des divisions du laboratoire étudie comment les modèles d’IA comme GPT-4o pourraient être utilisés en toute sécurité pour faire progresser la recherche bioscientifique.
Christophe
Site Admin
Messages : 16
Enregistré le : mar. 26 juil. 2022 11:26 pm

Re: Intelligence artificielle et armes nucléaires

Message par Christophe »

Un autre article :

L’IA d’OpenAI intégrée à la sécurité des armes nucléaires américaines après un accord historique

Les modèles seront déployés au niveau de centres stratégiques, dont le laboratoire de Los Alamos.



https://trustmyscience.com/openai-conclut-accord-gouvernement-americain-utiliser-ia-securite-armes-nucleaires/
Christophe
Site Admin
Messages : 16
Enregistré le : mar. 26 juil. 2022 11:26 pm

Re: Intelligence artificielle et armes nucléaires

Message par Christophe »

L’emploi de l’intelligence artificielle à des fins militaires connaît une accélération sans précédent
Les opérations militaires passent de plus en plus par l’agrégation de données civiles ou des services de stockage de grands acteurs de la tech. Une dualité qui bouscule les géants traditionnels du secteur de la défense.
https://www.lemonde.fr/economie/article/2025/02/10/l-emploi-de-l-intelligence-artificielle-a-des-fins-militaires-connait-une-acceleration-sans-precedent_6539522_3234.html



Après des années de progression discrète, l’emploi de l’intelligence artificielle (IA) à des fins militaires connaît une accélération inédite. Alors que se tient à Paris, lundi 10 et mardi 11 février, le Sommet pour l’action sur l’IA, plusieurs rapprochements entre des acteurs majeurs de la tech et les sphères étatiques sur les enjeux de défense ont été dévoilés ces dernières semaines. Un phénomène qui s’inscrit dans le sillage de l’arrivée à la Maison Blanche de Donald Trump et des grandes manœuvres d’Elon Musk, à la tête de son département de l’efficacité gouvernementale.

Le dernier virage en date, et l’un des plus spectaculaires, revient à Google. Le 4 février, le géant du numérique a décidé d’infléchir ses principes en matière d’IA, en retirant explicitement de ses lignes rouges le développement des « armes ou autres technologies dont l’objectif principal (…) est de blesser des personnes ». Une formulation beaucoup plus évasive a été retenue avec pour seule contrainte désormais de s’aligner sur « les principes largement acceptés du droit international ».
Christophe
Site Admin
Messages : 16
Enregistré le : mar. 26 juil. 2022 11:26 pm

Re: Intelligence artificielle et armes nucléaires

Message par Christophe »

Intelligence artificielle et armes nucléaires : quels risques ?

https://www.ifri.org/fr/presse-contenus ... ls-risques
27/04/2018 interview paru sur atlantico.fr

Une étude de la Rand corporation suggère que l’intelligence artificielle pourrait provoquer la fin de l’humanité... aussi tôt qu’en 2040. Un rapport alerte sur les risques présentés par l'intelligence artificielle et sur le risque d'un conflit nucléaire dans les prochaines décennies.



Atlantico : La Rand corporation alerte sur les risques présentés par l'intelligence artificielle pouvant conduire vers un conflit nucléaire dans les prochaines décennies. Que pensez-vous de ce rapport ? Quels sont les véritables risques de l'IA dans le domaine du nucléaire ?

Corentin Brustlein : Le rapport est intéressant car il met le doigt sur plusieurs risques pouvant être causés par le rôle grandissant de l'intelligence artificielle dans les forces armées et les postures militaires, et notamment sur l'impact de ce rôle sur les forces nucléaires. Deux risques spécifiques sont saillants : d'abord, on pense que l'IA va renforcer les capacités de renseignement et de discrimination des armées, ce qui pourrait décupler leur efficacité pour certaines missions jusqu'à présent très complexes telles que les frappes contre les lanceurs mobiles de missiles balistiques.

En rendant plus vulnérables des systèmes jusqu'alors considérés comme relativement protégés, qu'ils soient terrestres ou sous-marins, les moyens de renseignement appuyés par l'intelligence artificielle affaibliraient la dissuasion nucléaire en exacerbant les craintes des puissances nucléaires quant à la protection de leur arsenal, et pourraient pousser ces puissances à recourir de manière plus rapide à l'arme nucléaire.

L'autre risque exposé par le rapport concerne l'aide à la décision, qui représente un autre domaine dans lequel l'IA devrait jouer un rôle important à l'avenir. Ici, le risque est moins le scénario fantasmé de systèmes autonomes tout puissants déclenchant le feu nucléaire hors de tout contrôle humain, mais plutôt celui de voir des décisions humaines de plus en plus dépendantes d'intelligences artificielles restant par essence faillibles, et pouvant de surcroît être la cible d'actions hostiles: hacking, manipulation, déception, etc. Cela ne signifie nullement que la guerre nucléaire s'ensuivrait nécessairement, mais cela peut perturber les mécanismes de gestion d'une crise et rendre le processus d'escalade entre deux puissances nucléaires plus imprévisible et encore moins "contrôlable" - bien qu'on puisse douter que ce processus soit aussi "contrôlable" que certains le pensent, par exemple aux Etats-Unis ou en Russie.

On notera enfin que ces risques ne sont que des illustrations de ce que pourrait être l'interaction entre IA et forces nucléaires. On peut en imaginer bien d'autres, mais en définitive leur caractère plus ou moins préoccupant dépendra dans une large mesure des avancées futures dans le domaine de l'IA et des choix doctrinaux et programmatiques qui seront faits par les Etats.

Comment les États peuvent-ils s'adapter et en quoi cela peut modifier leur doctrine de dissuasion nucléaire ?

Il est encore tôt pour le dire, mais il faut garder à l'esprit que l'on parle ici d'évolutions supposées survenir à un horizon de 20 ans et plus. L'IA a beau avoir connu des avancées spectaculaires ces dernières années, il n'est pas garanti qu'elles se poursuivent à un tel rythme à l'avenir. Le rapport est d'ailleurs prudent sur les risques qu'il identifie, et rappelle qu'aucun consensus ne s'est dégagé entre les participants aux séminaires ayant préparé ce rapport.

Ensuite, il existe des moyens de limiter certains des risques évoqués par le rapport, par exemple dans le domaine de l'aide à la décision. Il est certes probable que des IA seront de plus en plus sollicitées dans une fonction d'aide à la décision dans le domaine militaire conventionnel, à l'échelle du champ de bataille. Mais quel serait l'intérêt d'un tel recours à des IA pour des décisions à très haut niveau ? C'est une chose de s'en remettre à l'IA lorsque les paramètres techniques et tactiques sont relativement connus et peu nombreux et que les risques pris sont circonscrits à une zone précise.

Je doute que quiconque envisage de s'appuyer sur une IA pour des choix de nature politico-stratégiques, reposant sur des données plus variées et plus complexes. On voit mal ce qui pousserait des décideurs politiques à affaiblir de facto leur autonomie de décision et d'appréciation pour les choix déterminants tels que la gestion d'une crise et l'entrée en guerre, a fortiori dans le domaine du nucléaire, c'est-à-dire dans des circonstances où les intérêts vitaux seraient menacés. Partant de là, le risque posé par une manipulation de l'IA paraît nettement moins grand.

Enfin, les puissances nucléaires ne seraient pas non plus démunies face au type d'évolutions pouvant mettre en doute l'invulnérabilité de leurs forces de représailles. L'IA peut s'avérer utile en appui de missions offensives, mais elle peut aussi bien être mise au service de la protection des forces nucléaires. Une IA peut être employée à scruter plus en finesse un théâtre d'opération pour y trouver des unités adverses, mais elle peut aussi être utilisée par le défenseur pour contrer les capacités d'observation ou de frappe adverses - on se souviendra que la recherche de moyens de neutralisation des dispositifs de renseignement américains est depuis longtemps un axe d'effort majeur de la Russie et de la Chine.

Comment les risques de prolifération nucléaire toujours plus importants (Iran, Corée du Nord...) et l'intelligence artificielle, peuvent modifier le paysage nucléaire mondial ?

L'une des conclusions du rapport est que l'introduction de l'IA est porteuse de risque pour la stabilité stratégique. Derrière cette formule, on retrouve l'idée que si les puissances nucléaires craignent pour la capacité de leur arsenal nucléaire à résister à une attaque adverse, elles seront incitées à recourir à l'arme nucléaire plus tôt dans une crise, potentiellement de manière précipitée. Le risque réside ainsi dans le fait que le temps traditionnellement requis pour une résolution pacifique de la crise et pour une "désescalade" diplomatique des tensions pourrait être compressé par des impératifs opérationnels.

Il n'existe à ma connaissance pas d'étude approfondie examinant ce que l'IA pourrait changer dans le domaine de la prolifération nucléaire, c'est-à-dire pour faciliter la tâche d'Etats ou d'acteurs non-étatiques désireux de développer un programme d'armement nucléaire. A priori l'IA ne paraît pas en mesure de révolutionner ce domaine, et de permettre à des candidats à la prolifération de lever les lourdes barrières se dressant sur leur chemin, ayant trait à l'accès aux matières fissiles, à la maîtrise de la physique nucléaire et de l'ingénierie de systèmes complexes, le tout sous le regard d'organisations internationales et d'agences de renseignement.

De manière générale, le paysage nucléaire mondial a été extrêmement résilient face aux ruptures technologiques apparues au cours des 70 dernières années - notamment la numérisation des sociétés. L'impact sur les équilibres stratégiques ou les forces nucléaires n'a pas été nul, mais les changements survenus se sont étalés sur de longues durées, et rien ne permet de penser qu'il en ira différemment dans le domaine de l'IA.
Christophe
Site Admin
Messages : 16
Enregistré le : mar. 26 juil. 2022 11:26 pm

Re: Intelligence artificielle et armes nucléaires

Message par Christophe »

Des experts appellent à réglementer l'IA pour éviter que les humains ne «perdent le contrôle»



Par Le Figaro avec AFP
https://www.lefigaro.fr/secteur/high-te ... e-20250209

Le 10 février 2025
L’intelligence artificielle générale serait bientôt comparable, voire supérieure, aux humains et plusieurs pointures de l’écosystème, comme le patron d’OpenAI Sam Altman, pensent y parvenir dans les prochaines années.

Et si les humains perdaient le contrôle de l'intelligence artificielle? Alors que la France accueille un sommet sur cette technologie qui bouleverse la société, des experts mettent en avant le besoin de normes pour éviter ce scénario. À l’inverse des sommets précédents à Bletchley Park (Royaume-Uni) en 2023 et à Séoul (Corée du Sud) en 2024, axés sur les questions de sécurité, la présidence française souhaite que celui de lundi et mardi, à Paris, mette l'accent sur «l'action».

L'objectif: que de nombreux acteurs se déclarent en faveur d'une gouvernance mondiale de l'intelligence artificielle et prennent des engagements pour une IA durable, sans cadre contraignant toutefois. «Notre souhait n'est pas de passer notre temps à uniquement parler des risques. Il y a aussi le côté opportunité qui est très réel», a ainsi assuré à l'AFP Anne Bouverot, envoyée spéciale du président de la République, Emmanuel Macron, pour l'événement.

Pourtant, la France est «une championne de la collaboration internationale et a l'opportunité d'être leader pour le reste du monde», plaide auprès de l'AFP Max Tegmark, président du Future of Life Institute, organisme non lucratif basé aux États-Unis qui met régulièrement en garde contre les méfaits de cette technologie. Pour ce physicien du Massachusetts Institute of Technology (MIT), il ne faut pas que le pays passe à côté de ce «moment charnière» du sommet sur l'IA, qui réunit pendant plusieurs jours dans la capitale française les grands acteurs du secteur.

Cyberattaques et attaques biologiques
Future of Life Institute appuie ainsi le lancement dimanche d'une plateforme, baptisée «GRASP», qui vise à cartographier les principaux risques liés à l'IA et les solutions développées à travers le monde.

«Nous avons identifié environ 300 outils et technologies qui répondent à ces risques», détaille pour l'AFP Cyrus Hodes, qui a coordonné l'initiative dont les résultats seront transmis à l'Organisation de coopération et de développement économiques (OCDE) et aux membres du Partenariat mondial sur l'intelligence artificielle (PMIA), dont fait partie la France et qui se réunit dimanche.

Le premier rapport international sur la sécurité de l'IA, fruit d'une collaboration internationale de 96 experts et soutenu par 30 pays, l'Onu, l'Union européenne et l'OCDE, a par ailleurs été présenté jeudi, aussi dans l'optique d'informer les décideurs politiques des dangers de cette technologie.

Si certains sont bien établis, comme la création de faux contenus en ligne, le chercheur en informatique Yoshua Bengio, lauréat 2018 du prix Turing, affirme que «les preuves de l'existence de risques supplémentaires comme les attaques biologiques ou les cyberattaques apparaissent progressivement». À plus long terme, il s'inquiète d'une «perte de contrôle» des humains sur des IA animées de «leur propre volonté de vivre».

«Beaucoup de personnes pensaient que maîtriser le langage comme le fait ChatGPT-4 (le robot conversationnel d'OpenAI, NDLR) était de la science-fiction il y a à peine six ans», retrace Max Tegmark. «Le problème est que beaucoup de personnes au pouvoir n'ont toujours pas compris que nous nous rapprochons davantage de la construction d'une intelligence artificielle générale que de savoir comment la contrôler».

Des systèmes d’armement contrôlés par l’IA
L'intelligence artificielle générale serait comparable, voire supérieure, aux humains et plusieurs pointures de l'écosystème, comme le patron d'OpenAI Sam Altman, pensent y parvenir dans les prochaines années.

«Si on regarde le rythme auquel les capacités augmentent, on peut penser que nous y arriverons d'ici à 2026 ou 2027», abondait Dario Amodei, le patron de la start-up américaine Anthropic, en novembre.

Avec le risque que, dans «le pire des cas, ces entreprises américaines ou chinoises perdent le contrôle et que la Terre soit dominée par des machines», soutient Max Tegmark. «La technologie évolue vraiment très vite», appuie Stuart Russell, professeur en informatique à l'université californienne de Berkeley et codirecteur de l'Association internationale pour une IA sûre et éthique (IASEAI). Ce qui est le plus inquiétant, «ce serait d'avoir des systèmes d'armement où c'est l'intelligence artificielle qui contrôle et décide qui attaquer et quand», ajoute-t-il.

Pour ces experts, les Etats doivent mettre en place des garde-fous. «Nous devons traiter l'industrie de l'intelligence artificielle de la même façon que nous traitons toutes les autres industries», souligne Max Tegmark. «Avant de construire un réacteur nucléaire près de Paris, on doit démontrer à des experts mandatés par le gouvernement que le réacteur est sécurisé», poursuit-il. «Cela doit être la même chose pour l'IA».
Répondre