Anthropic : des tensions avec le Pentagone
Question d'éthique
Les négociations entre la startup d'IA Anthropic PBC et le Pentagone concernant la prolongation de son contrat seraient au point mort en raison des protections supplémentaires que l'entreprise d'intelligence artificielle souhaiterait intégrer à son outil Claude, selon une source de Bloomberg proche du dossier. Anthropic entendrait en effet instaurer des garde-fous afin d'empêcher que Claude ne soit utilisé pour la surveillance de masse des citoyens américains ou pour développer des armes déployables sans intervention humaine, a précisé cette source de Bloomberg, qui a requis l'anonymat car les négociations sont confidentielles.
Bloomberg note que l'utilisation de l'IA pour le développement d'armes et la collecte de données personnelles représente un risque croissant pour les modèles puissants. Anthropic, qui se positionne comme une entreprise d'IA plus responsable, soucieuse d'éviter les conséquences catastrophiques de cette technologie, a conçu Claude Gov spécifiquement pour le service de sécurité nationale américain et vise à servir ses clients gouvernementaux dans le respect de ses propres principes éthiques, explique encore Bloomberg. Claude Gov offre des capacités accrues pour le traitement et l'interprétation de documents et de renseignements classifiés, ainsi que pour la compréhension des données de cybersécurité.
"Anthropic s'engage à utiliser l'IA de pointe au service de la sécurité nationale américaine", a déclaré un porte-parole cité par Bloomberg, ajoutant que l'entreprise mène des discussions "constructives et de bonne foi" avec le département de la Défense sur la manière "de poursuivre ce travail et de résoudre ces problèmes complexes".
"La relation du département de Guerre avec Anthropic fait actuellement l'objet d'un examen", a indiqué pour sa part Sean Parnell, porte-parole du Pentagone, repris par Bloomberg. "Notre nation exige que ses partenaires soient prêts à aider nos combattants à remporter la victoire dans tous les conflits. En fin de compte, il s'agit de nos troupes et de la sécurité du peuple américain". Selon Bloomberg, de nombreux responsables de la défense considèrent Anthropic comme un risque pour la chaîne d'approvisionnement, et le ministère de la Défense pourrait exiger des fournisseurs qu'ils certifient ne pas utiliser les modèles de cette entreprise, selon un haut responsable du ministère. Ce responsable a indiqué que les fabricants d'autres modèles, notamment ChatGPT d'OpenAI, Gemini de Google et Grok de xAI, collaboreraient avec le Pentagone afin de garantir la légalité de l'utilisation de leurs plateformes.
L'an dernier, Anthropic avait conclu un accord de deux ans avec le Pentagone portant sur un prototype des modèles Claude Gov et Claude for Enterprise. Les négociations avec Anthropic pourraient donner le ton des discussions à venir avec OpenAI, Google et xAI dont les modèles ne sont pas encore utilisés pour des applications classifiées, selon Axios.
Les informations et conseils rédigés par la rédaction de Boursier.com sont réalisés à partir des meilleures sources, même si la société Boursier.com ne peut en garantir l'exhaustivité ni la fiabilité. Ces contenus n'ont aucune valeur contractuelle et ne constituent en aucun cas une offre de vente ou une sollicitation d'achat de valeurs mobilières ou d'instruments financiers. La responsabilité de la société Boursier.com et/ou de ses dirigeants et salariés ne saurait être engagée en cas d'erreur, d'omission ou d'investissement inopportun.
- 0 vote
- 0 vote
- 0 vote
- 0 vote
- 0 vote