GraphCast

  

https://c.gethopscotch.com/p/13hzerfkfb

La météo est un excellent sujet pour apprendre la science et l’intelligence artificielle en utilisant Hopscotch.

J’ai écrit plusieurs programmes Hopscotch reliés à la météo.  Vous pouvez chercher mon nom sur Hopscotch: SlickJudge ou vous pouvez chercher GraphCast sur l’application Hopscotch.

https://www.gethopscotch.com/

L’article de Nature publié la semaine dernière donne un excellent résumé de GraphCast, expliquant la façon dont il a été conçu, avec ses points forts et aussi les endroits où il reste encore du travail à faire.

https://www.science.org/doi/10.1126/science.adi2336

GraphCast est un modèle pour une prédiction plus rapide et plus précise de la météo.  Les modèles traditionnels de prédiction de la météo utilise des équations très élaborées pour arriver à leur fins.  GraphCast utilise une autre méthode.  GraphCast a utilisé des données historiques pour l’entrainement de l’IA et utilise les données actuelles pour faire une prédiction de la météo.  Ses prédictions sont plus précises que les systèmes actuels dans une grande majorité d’endroits.  Les prédictions se font en moins d’une minute et peuvent se faire sur un laptop.  En ce moment, GraphCast peut être utilisé de manière complémentaire.  Les IA sont plus difficiles à mettre en place.  Les chercheurs ne sont pas encore 100% certains de la façon dont l’IA se rend à ses conclusions.  Du travail reste encore à faire pour valider son approche.  Les auteurs pensent qu’il s’agit peut-être d’un changement de paradigme en Intelligence Artificielle.

GraphCast est utilisé par le centre de météo Européen de facon complémentaire aux autres modèles traditionnels.

https://charts.ecmwf.int/products/graphcast_medium-mslp-wind850?base_time=202311271200&projection=opencharts_europe&valid_time=202311271800

 

Il y a ici une autre source d’information à propos de GraphCast sur le site de Google DeepMind.

https://charts.ecmwf.int/products/graphcast_medium-mslp-wind850?base_time=202311271200&projection=opencharts_europe&valid_time=202311271800

 

 

 

AlphaFold est open source

AlphaFold est OpenSource.  Il est mis à la disposition du monde entier.  Enfin, j’imagine avec toutes les discussions intergouvernementales, il est disponible aux pays qui seront d’accord.

https://alphafold.ebi.ac.uk/

La sécurité a été une considération importante pour AlphaFold avant que la base de données et l’IA soit mis à la disposition du monde entier.  Leur but est de faire avancer la science, et non de contribuer à des avancées négatives.  Par example, les protéines qui pourraient  être la source de découverte d’armes biologiques ont été retirées de la base de données.

La question de sécurité et d’éthique est trop importante pour ne pas qu’elle soit réglementée.  On doit penser aux risques et défis que l’on ne veut pas. Les compagnies et les gouvernements ont un rôle important à jouer.  Il se peut qu’une technologie appliquée dans un domaine soit parfait, mais cette même technologie appliquée dans un autre domaine ne le soit pas.  Chaque domaine a différentes exigences.

https://www.cnbc.com/video/2023/10/31/we-have-to-talk-to-everyone-including-china-to-understand-the-potential-of-ai-technology-google-deepmind-ceo-says.html?__source=sharebar|twitter&par=sharebar

Dans une entrevue à CNBC Demis Hassabis discutait de 3 types de risques que l’on doit s’inquiéter.

  1. La désinformation.  Il y a des IA qui donnent de l’information erronée, comme les DeepFake.  Il y a aussi des biais dans le système.  Comme par exemple, si une IA est entrainée seulement avec des personnes blanches, et soudain rencontre une personne noire, la personne noire, l’IA ne pourrait pas reconnaitre ce qu’il voit.  Les systèmes doivent aussi être équitable.   Ce n’est pas seulement les gens ou les pays riches qui doivent en profiter.  Par exemple, AlphaFold permet d’aider des scientifiques qui essaie de produire des médicaments pour les maladies oubliées.  Il n’y a pas beaucoup d’investissements dans ces maladies parce qu’il n’y a pas beaucoup de profits pour les compagnies pharmaceutiques.
  2. Utilisation abusive de l’IA.  On veut empêcher de mauvais acteurs réutilisant la technologie à de mauvaises fins, ce à quoi elle n’était pas destiné.
  3. Risques technologiques de l’IAG.  Il y a l’IA et les futurs IA que l’on va essayer de développer: l’Intelligence Artificielle Généralisée.  Les concepteurs d’IA doivent s’assurer que l”on peut controler l’IA, que l’on se fixe des objectifs, et qu’on se tient à ses objectifs.

Nous avons besoin plus de recherche au long terme.

Podcast à consulter à propos de Alphafold

Demis Hassabis et John Jumper, les concepteurs d’AlphaFold sont d’excellentes sources sur ce que peut faire AlphaFold.  La conférence s’est déroulée le 5 octobre 2023.

Demis Hassabis a donné une référence à l’information produite par Alphafold.  Le podcast donne une idée d’ensemble de la recherche à AlphaFold et leur recherches actuelles.

https://deepmind.google/discover/the-podcast/

L’émission de radio de Radio-Canada les Années Lumières donnent aussi un excellent résumé de ce qu’est AlphaFold.  Cette émission était du 7 aout 2022.

https://ici.radio-canada.ca/ohdio/premiere/emissions/les-annees-lumiere/segments/reportage/410965/proteines-forme-structure-intelligence-artificielle-ia-alphafold

L’information que donne Les Années Lumies est discutée avec 2 scientifiques: Jean-Francois Trempe et Joelle Pelletier de l’Université McGill.

 

AlphaFold est toujours en train d’améliorer ce que peut prédire AlphaFold.  Le 31 octobre, ils publiaient sur leur site  leurs prochaines étapes.

https://deepmind.google/discover/blog/a-glimpse-of-the-next-generation-of-alphafold/

La prochaine génération d’Aphafold sera encore plus précise, pouvant prédire la structure de protéines mais aussi d’autres molécules biologiques, incluant les ligands.

Les capacités et les performances étendues du modèle peuvent contribuer à accélérer les avancées biomédicales et à concrétiser la prochaine ère de la « biologie numérique ».

 

AI incident database

I had heard of the AI Incident database but here’s two resources that explains it.

https://www.aljazeera.com/program/the-bottom-line/2023/8/17/does-artificial-intelligence-pose-a-risk-to-humans

Jaan Tallinn indicates that he invested in Google DeepMind.  His investment is not large enough though to be able to voice concerns he may have at Board meetings of the company.  There’s the AI incident database that will allow him to voice his concerns.

https://incidentdatabase.ai/

The AI Incident Database is dedicated to indexing the collective history of harms or near harms realized in the real world by the deployment of artificial intelligence systems. Like similar databases in aviation and computer security, the AI Incident Database aims to learn from experience so we can prevent or mitigate bad outcomes.

 

First international AI summit #SommetsurlasécuritéenIA

François-Philippe Champagne, Ministre de l’Innovation, des Sciences et de l’Industrie a participé à la première conférence sur la sécurité avec les Intelligences Artificielles.  Elle se déroulait au Royaume-Uni.  On peut voir sur la photo des gens tels que le premier ministre Brittanique, le concepteur de ChatGPT, Pamela Harris, la vice-présidente des Etats-Unis, Josuha Benjio, le secrétaire général des Nations Unis, Antonio Guterres, et Demis Assabis qui ont aussi participé.

Google DeepMind a publié un peu avant cette conférence un apperçu de leur approche sur la sécurité et la responsabilité

https://deepmind.google/public-policy/ai-summit-policies/

Le sommet était pour contribuer à la sécurité et à la responsabilité de futurs Intelligences Artificielles, à la prochaine génération d’IA.  Ils veulent mettre en place l’infrastructure pour le futur.

Pour réaliser la promesse et minimiser les risques liés à l’IA, il faudra de nouvelles lois et règles, identifier les oublis et avoir les moyens d’appliquer ces nouvelles lois.

Google DeepMind discutait de 9 domaines.

1-  Mise à l’échelle responsable des capacités

Les IA qui seront développées seront pour le bénéfice de la société.  L’IA doit éviter de créer des préjugés.  Ils doivent être construites et testés pour une excellente sécurité.  Etre responsable envers le gens. Intégrer les principes de conception et d’intégralité. Respecter des normes élevées d’excellence scientifique.  Etre mis à la disposition pour des usages selon ces principes.  

Il n’aura pas d’IA dans les domaines où la technologie qui nuira globalement, dans la technologie des armes, les technologies qui utilisent l’information pour la surveillance qui violent les normes internationales ou qui contreviennent aux lois internationales et aux droits humains.

 

2- Évaluation du modèle et red-teaming

L’évaluation est l’un des principaux outils dont nous disposons pour évaluer les risques de la performance du modèle à la tâche.   L’évaluation fournit des mesures de sécurité de référence (tel une rubrique).  Ces mesures nous aident à comprendre les capacités et les risques des modèles, éclairant les décisions responsables sur le déploiement de l’IA.  Le processus consiste à soumettre nos modèles à un ensemble pertinent d’évaluations à différents points de contrôle tout au long du cycle de vie du développement.  “Red-teaming” est un type d’évaluation spécifique.  C’est comme jouer le rôle d’un adversaire et exécuter des attaques simulées contre des cibles.  C’est beaucoup plus difficile que ça en a l’air.  Les meilleures pratiques et les références ne sont pas encore établies.

3- Reportage sur les modèles et partage d’information

Le partage d’informations sur les capacités, les opportunités et les risques potentiels des modèles d’IA est essentiel pour leur utilisation responsable. 

L’IA est un domaine de recherche. L’article Nature rédigé par l’équipe AlphaFold a été l’un des 100 articles sur l’IA les plus cités en 2022.

 

4- Structure pour faire un compte rendu  des vulnérabilités découvertes après la publication du modèle et la surveillance post-déploiement pour une utilisation abusive des modèles

Red-teaming doit être effectué avant et après le partage de l’IA.  Il faut surveiller les capacités émergentes.  Ces capacités ne sont pas présentes dans les modèles plus petits mais sont présentes dans les modèles plus grands. Elles ne sont pas facilement prévisibles par les développeurs avant la formation de l’IA et sont parfois découvertes bien plus tard.

Google est l’un des sponsors de la base de données des incidents AI. Il enregistre les incidents couvrant plusieurs taxonomies de préjudice de l’IA.

 

5- Contrôles de sécurité, y compris la sécurisation des modèles

Garantir la sécurité des modèles et des systèmes d’IA les plus avancés. Il s’agit de la pierre angulaire du développement responsable de modèles et de systèmes d’IA frontaliers.

Approche de sécurité générale et de l’infrastructure développée, formée et stockée au sein de l’infrastructure de Google, soutenue par des équipes de sécurité centrales et par une organisation de sécurité, de sûreté et de fiabilité composée d’ingénieurs et de chercheurs possédant une expertise de classe mondiale. Il existe des équipes dédiées aux menaces internes et aux abus.

 

6- Identificateurs de matériel généré par l’IA  

Identifiez le contenu généré par l’IA et tracez sa provenance. Le gouvernement et l’industrie travaillent ensemble sur cette question pour la recherche politique et technique.  

Les stratégies techniques incluent le watermarking (images superposées), les métadonnées et la signature numérique.

7- Recherche et investissement prioritaires sur les risques sociétaux en matière de sûreté et de sécurité

Rendre notre IA robuste et vérifiable. Des équipes pionnières dans la recherche visant à mieux comprendre les risques et les avantages posés par les systèmes d’IA à mesure qu’ils sont déployés et interagissent avec la société au sens large. Les sujets incluent les communautés sous-représentées. Comment pouvons-nous intégrer des valeurs humaines dans nos systèmes d’IA et les risques posés par les grands modèles de langage. L’IA comme Sparrow réduit le risque de réponses dangeureuses et inappropriées.

 

8-  Contrôles et révision de saisie des données

Modèles formés avec des sources de données accessibles au public, des ensembles de données open source, des données exclusives et des données obtenues auprès des tiers. Le réglage fin des modèles de base à usage général pour des fonctions plus spécifiques nécessite des données plus spécialisées.

 

9- L’IA pour le bien

Identifier les domaines dans lesquels l’IA peut contribuer à relever les défis politiques et à améliorer la vie des gens.

AlphaFold a accéléré les progrès sur le défi de longue date du repliement des protéines et a dynamisé une toute nouvelle industrie de la biologie computationnelle. Des progrès transformationnels sont possibles dans les autres domaines.

AI Conference follow up

I read a book today about Biochemistry (30-second Biochemistry) to refresh my memory about proteins to better understand the AlphaFold AI.

I searched the link about Demis Assabis being named among the 100 most influential people by TIMES

https://time.com/collection/time100-ai/6309001/demis-hassabis-ai/

In his new capacity as an AI leader at Google,  they are developing an new type of AI, Gemini that could outperform OpenAI GPT-4.    Gemini is one step further in a larger pursuit of AGI (Artificial General Intelligence).    Using AI to advance science is already here (with AlphaFold, for example).

** interesting point about Gemini, input and output is not just text but other forms of media like images.  *** yet to be released.  (I had make a Hopscotch program I can relate to Gemini).

I could get from videos that there was something wrong with language based AI.  They were trained with text.  They are not grounded.  He explained in this article quite well the problem.  Large language models have this consistent problem with so-called hallucinations or this inclination to pass off guesses as facts.  They try to make models marginally more truthful by using reinforcement-learning techniques.   To fully solve (hallucination) he thinks it’s going to require some other innovations, like fact checking by checking with Google search as a tool.  It needs to better understand what entities are in the world.

He talked to UK and US government officials.  They are up to speed, now about AI policy.  He is optimistic about the situation.

Ethics has always been part of his work in AI.

In the future, they need to come up with the right evaluation benchmarks for capabilities.

We need to do more AI safety research as they want rigorous evaluation and bench marking technologies.

 

I saw over 20 questions that were asked through the question software.  I was glad that it was my question that was selected.

 

The Future of AI in science & medicine conference

I attended the conference: the Future of AI in science & medicine

I would like to share some of my notes.

1- Cheryl Arrowsmith 

She uses AlphaFold in her research into chemical probes to revolutionise science and biology medicine.

https://www.target2035.net/

They can be found on X using #Target2035

There is a high need for collaboration and data sharing in the field.  They also need people to test the molecules.

They also participate in the CACHE challenge for critical assessment.

The goal is to lower the cost of making new drugs.

2- Bo Wang

https://wanglab.ai/

Developed scGPT :  toward building a foundation model for single-cell omics.

We develop integrative and interpretable machine learning algorithms that can help clinicians with predictive models and decision support to tailor patients’ care to their unique clinical and genomic traits.

Data is from the Human Cell Atlas at JCoolScience

They have organ specific Foundation Models.

To develop those tools, collaboration is key between computer scientist and biologists.

3- Doina Precup

Their AI is confined to simulations.  The AI train on simulation.  They need to train in the population and it is hard to do.  They need more data.

4 – Artem Babain

His website http://RNNlab.ca is not available online.  But his X handle is:  @RNA_life.

He is one of the 2023 winners of the Gardner Prize.  He was able to predict where the SARS-CoV-2 virus was coming from.   The database:  Sequence Read Archive (or ENA) is available to everyone.  The volume of data is growing exponentially.

He said if there is one thing we should remember from this presentation is that they are the modern library of Alexandria for genetics.

They have a really large amount of data.  They write algorithms to process such a large volume of data.

 

5- Elaine O Nsoesie, Ph. D. 

She is able to predict obesity from space.

6- Demis Assabis and John Jumper

 

Links and #hashtag to research further:

https://unfolded.deepmind.com

#unfolded

He created tools to aid scientists.  Here is my question:

How to support the next generation.

It depends on age, of course.  AI is multidisciplinary work.  We need to work and talk with experts in other domains.  We need to learn WHEN to apply AI.

It is currently the easiest time to get involved.

——-

The Gairdner foundation thanks its supporters.

 

DeepMind’s Demis Hassabis interview on TedTalk

https://www.youtube.com/watch?v=I5FrFq3W25U

Some interesting points to me.

He thinks chess should be part of the school curriculum.  It teaches phenomenal skills.

What would happen if AI just read Wikipedia? The AI would not be grounded as it is not living in the real world.  Some of our assumptions about intelligence may not hold.  AI would not know, for instance that a dog has 4 legs.  ChatGP3 tends to allucinate.

Alphafold’s immediate goal is to solve the protein folding problem.  It’s immediate application is acceleration of drug discovery in designing new molecules and new compounds.

What is the most unsolved problem in your field that you would like to see?

The notion of abstract concepts of conceptual knowledge is quite rudimentary so far.  It’s transfer learning or analogical reasoning in psychology.  We, as humans, do something like this effortlessly in our own brain.  In a domain, find the underlying structure, and apply it to another domain.  AI systems don’t do that in a satisfactory way.

What’s missing is true creativity.  AI can invent new game strategies but cannot invent a game of GO.  Not there yet.

The ultimate goal is to understand the whole universe around us.