First international AI summit #SommetsurlasécuritéenIA

François-Philippe Champagne, Ministre de l’Innovation, des Sciences et de l’Industrie a participé à la première conférence sur la sécurité avec les Intelligences Artificielles.  Elle se déroulait au Royaume-Uni.  On peut voir sur la photo des gens tels que le premier ministre Brittanique, le concepteur de ChatGPT, Pamela Harris, la vice-présidente des Etats-Unis, Josuha Benjio, le secrétaire général des Nations Unis, Antonio Guterres, et Demis Assabis qui ont aussi participé.

Google DeepMind a publié un peu avant cette conférence un apperçu de leur approche sur la sécurité et la responsabilité

https://deepmind.google/public-policy/ai-summit-policies/

Le sommet était pour contribuer à la sécurité et à la responsabilité de futurs Intelligences Artificielles, à la prochaine génération d’IA.  Ils veulent mettre en place l’infrastructure pour le futur.

Pour réaliser la promesse et minimiser les risques liés à l’IA, il faudra de nouvelles lois et règles, identifier les oublis et avoir les moyens d’appliquer ces nouvelles lois.

Google DeepMind discutait de 9 domaines.

1-  Mise à l’échelle responsable des capacités

Les IA qui seront développées seront pour le bénéfice de la société.  L’IA doit éviter de créer des préjugés.  Ils doivent être construites et testés pour une excellente sécurité.  Etre responsable envers le gens. Intégrer les principes de conception et d’intégralité. Respecter des normes élevées d’excellence scientifique.  Etre mis à la disposition pour des usages selon ces principes.  

Il n’aura pas d’IA dans les domaines où la technologie qui nuira globalement, dans la technologie des armes, les technologies qui utilisent l’information pour la surveillance qui violent les normes internationales ou qui contreviennent aux lois internationales et aux droits humains.

 

2- Évaluation du modèle et red-teaming

L’évaluation est l’un des principaux outils dont nous disposons pour évaluer les risques de la performance du modèle à la tâche.   L’évaluation fournit des mesures de sécurité de référence (tel une rubrique).  Ces mesures nous aident à comprendre les capacités et les risques des modèles, éclairant les décisions responsables sur le déploiement de l’IA.  Le processus consiste à soumettre nos modèles à un ensemble pertinent d’évaluations à différents points de contrôle tout au long du cycle de vie du développement.  “Red-teaming” est un type d’évaluation spécifique.  C’est comme jouer le rôle d’un adversaire et exécuter des attaques simulées contre des cibles.  C’est beaucoup plus difficile que ça en a l’air.  Les meilleures pratiques et les références ne sont pas encore établies.

3- Reportage sur les modèles et partage d’information

Le partage d’informations sur les capacités, les opportunités et les risques potentiels des modèles d’IA est essentiel pour leur utilisation responsable. 

L’IA est un domaine de recherche. L’article Nature rédigé par l’équipe AlphaFold a été l’un des 100 articles sur l’IA les plus cités en 2022.

 

4- Structure pour faire un compte rendu  des vulnérabilités découvertes après la publication du modèle et la surveillance post-déploiement pour une utilisation abusive des modèles

Red-teaming doit être effectué avant et après le partage de l’IA.  Il faut surveiller les capacités émergentes.  Ces capacités ne sont pas présentes dans les modèles plus petits mais sont présentes dans les modèles plus grands. Elles ne sont pas facilement prévisibles par les développeurs avant la formation de l’IA et sont parfois découvertes bien plus tard.

Google est l’un des sponsors de la base de données des incidents AI. Il enregistre les incidents couvrant plusieurs taxonomies de préjudice de l’IA.

 

5- Contrôles de sécurité, y compris la sécurisation des modèles

Garantir la sécurité des modèles et des systèmes d’IA les plus avancés. Il s’agit de la pierre angulaire du développement responsable de modèles et de systèmes d’IA frontaliers.

Approche de sécurité générale et de l’infrastructure développée, formée et stockée au sein de l’infrastructure de Google, soutenue par des équipes de sécurité centrales et par une organisation de sécurité, de sûreté et de fiabilité composée d’ingénieurs et de chercheurs possédant une expertise de classe mondiale. Il existe des équipes dédiées aux menaces internes et aux abus.

 

6- Identificateurs de matériel généré par l’IA  

Identifiez le contenu généré par l’IA et tracez sa provenance. Le gouvernement et l’industrie travaillent ensemble sur cette question pour la recherche politique et technique.  

Les stratégies techniques incluent le watermarking (images superposées), les métadonnées et la signature numérique.

7- Recherche et investissement prioritaires sur les risques sociétaux en matière de sûreté et de sécurité

Rendre notre IA robuste et vérifiable. Des équipes pionnières dans la recherche visant à mieux comprendre les risques et les avantages posés par les systèmes d’IA à mesure qu’ils sont déployés et interagissent avec la société au sens large. Les sujets incluent les communautés sous-représentées. Comment pouvons-nous intégrer des valeurs humaines dans nos systèmes d’IA et les risques posés par les grands modèles de langage. L’IA comme Sparrow réduit le risque de réponses dangeureuses et inappropriées.

 

8-  Contrôles et révision de saisie des données

Modèles formés avec des sources de données accessibles au public, des ensembles de données open source, des données exclusives et des données obtenues auprès des tiers. Le réglage fin des modèles de base à usage général pour des fonctions plus spécifiques nécessite des données plus spécialisées.

 

9- L’IA pour le bien

Identifier les domaines dans lesquels l’IA peut contribuer à relever les défis politiques et à améliorer la vie des gens.

AlphaFold a accéléré les progrès sur le défi de longue date du repliement des protéines et a dynamisé une toute nouvelle industrie de la biologie computationnelle. Des progrès transformationnels sont possibles dans les autres domaines.

Leave a Reply

Your email address will not be published. Required fields are marked *