Intelligence artificielle : voici ce qui nous attend en 2023

En 2022, l’intelligence artificielle (IA) a fait preuve de créativité. Les modèles d’IA peuvent désormais produire du texte, des images et même des vidéos très convaincantes et pour cela ils ont juste besoin d’un petit coup de main. Neuf mois plus tôt, OpenAI a révolutionné l’IA générative avec la sortie de DALL-E 2, un modèle deep-learning (ou apprentissage profond, en français) capable de produire des images à partir d’instructions textuelles. Suite à cela, Google et Meta ont également apporté leur contribution avec des IA capables de produire des vidéos à partir de texte. Et il y a quelques semaines seulement, OpenAI a lancé ChatGPT, le dernier modèle de langage étendu qui a enflammé Internet grâce à son éloquence et la surprenante cohérence de ses réponses.

En 2022, le rythme effréné de l’innovation a été remarquable – et parfois écrasant. Qui aurait pu anticiper cela ? Et comment pouvons-nous prédire ce qui va suivre ?

Heureusement, à la MIT Technology Review, nous avons la chance d’avoir non pas un mais deux journalistes spécialisés qui passent leurs journées à suivre, de manière obsessionnelle, les derniers développements dans le domaine de l’intelligence artificielle. Ils vous présentent ci-dessous les plus grandes tendances qui, selon eux, façonneront le paysage de l’IA en 2023 :


À LIRE AUSSI

ChatGPT : comment savoir si ce que nous lisons sur Internet a été écrit par un humain ou par une intelligence artificielle ?

La révolution ChatGPT

Ces dernières années, les modèles de langage se sont multipliés et se sont améliorés. Le point culminant actuel est ChatGPT. Ce dernier a été mis en ligne par OpenAI au début du mois de décembre 2022. Ce chatbot est une version améliorée de GPT-3, l’intelligence artificielle de la société qui a lancé en 2020 cette vague d’outils capables d’imiter notre manière de parler.

Mais trois ans, c’est long en matière d’IA et si ChatGPT a pris le monde d’assault – et a inspiré des messages sur les réseaux sociaux et des titres de journaux à couper le souffle grâce à ses compétences conversationnelles fluides bien qu’inconscientes – tous les regards sont désormais tournés vers le prochain grand projet de l’entreprise : GPT-4. Selon les pronostics, 2023 sera l’année du lancement de la prochaine génération de grands modèles de langage.

À quoi devons-nous nous attendre ? Pour commencer, les futurs modèles de langage pourraient être plus que de simples modèles de langage. OpenAI s’intéresse à la combinaison de différentes modalités, comme la reconnaissance d’images ou de vidéos, avec du texte. Nous l’avons vu avec DALL-E. Mais si vous prenez les compétences conversationnelles de ChatGPT et les combinez avec la manipulation d’images pour les rassembler dans un seul modèle, vous obtiendrez un outil beaucoup plus polyvalent et puissant. Imaginez que vous puissiez demander à un chatbot ce qu’il y a dans une image ou lui demander de générer une image et faire en sorte que ces interactions fassent partie d’une conversation permettant d’affiner les résultas plus naturellement qu’avec DALL-E.

Nous avons déjà eu un aperçu avec Flamingo de DeepMind, un “modèle de langage visuel” déployé en avril. Celui-ci peut répondre à des requêtes sur des images en utilisant le langage naturel. Puis, en mai, DeepMind a dévoilé Gato, un modèle “généraliste” formé à l’aide des mêmes techniques que celles utilisées pour les grands modèles de langage afin de réaliser différents types de tâches : de la description d’images au contrôle d’un bras robotique en passant par l’univers des jeux vidéos.

OpenAI, DeepMind et d’autres sont déjà en train de travailler sur la prochaine génération de grands modèles de langage

Si GPT-4 s’appuie sur une telle technologie, on peut s’attendre à ce que la puissance des meilleurs IA de langage et de création d’images (et plus encore) soit réunie dans un même ensemble. La combinaison des compétences en matière de langage et d’images pourrait en théorie permettre à l’IA nouvelle génération de mieux comprendre les deux. Et OpenAI ne serait pas seul sur la ligne de départ. Attendez-vous à ce que d’autres grands laboratoires, en particulier DeepMind, fassent avancer les modèles multimodaux cette année.

Mais évidemment, il y a un inconvénient : la prochaine génération de modèles de langage héritera de la plupart des problèmes de la génération actuelle tels que l’incapacité de distinguer la réalité de la fiction et un penchant pour les préjugés. Avec de meilleurs modèles linguistiques, il sera plus difficile que jamais de faire confiance à différents types de médias. Et comme personne n’a encore trouvé comment former des modèles sur des données extraites d’Internet sans qu’ils absorbent le pire de ce que contient le web, ils seront toujours remplis d’immondices.


À LIRE AUSSI

Galactica : les raisons de l’échec du dernier grand modèle de langage de Meta

En 2023, l’industrie de l’IA sera davantage contrôlée ?

Jusqu’à présent, l’industrie de l’intelligence artificielle était un Far West, avec peu de règles régissant l’utilisation et le développement de la technologie. En 2023, cela va changer. Les régulateurs et législateurs ont passé l’an dernier à aiguiser leurs griffes. Cette année, ils vont agir.

Nous allons observer à quoi va ressembler la version finale de la loi européenne sur l’IA une fois que les législateurs auront fini de la modifier. Cela pourra avoir lieu d’ici cet été. Il est presque certain que cette loi inclura des interdictions sur les pratiques de l’IA jugées préjudiciables aux droits de l’Homme tels que les systèmes qui notent et classent les personnes en fonction de leur fiabilité.

L’utilisation de la reconnaissance faciale dans les lieux publics sera également limitée pour les forces de l’ordre en Europe et il existe même une tendance à l’interdire complètement pour les forces de l’ordre ainsi que pour les entreprises privées. Cette interdiction totale se heurte toutefois à une forte résistance de la part des pays qui souhaitent utiliser ces technologies pour lutter contre la criminalité. L’UE travaille également à l’élaboration d’une nouvelle loi visant à tenir les entreprises d’IA responsables lorsque leurs produits causent des dommages comme des atteintes à la vie privée ou des décisions injustes prises par les algorithmes.

Aux Etats-Unis, la Federal Trade Commission (FTC) surveille aussi de près la manière dont les entreprises collectent les données et utilisent les algorithmes d’IA. En 2022, la FTC a obligé la société spécialisée dans la perte de poids Weight Watchers à détruire des données et des algorithmes parce qu’elle avait collecté illégalement des données sur des enfants. Fin décembre, Epic, le studio derrière des jeux vidéos comme Fortnite, a échappé à la même sanction en acceptant de payer une amende de 520 millions de dollars. Le régulateur a passé l’an dernier à recueillir des commentaires sur les règles potentielles concernant la façon dont les entreprises traitent les données et élaborent des algorithmes. Sa présidente, Lina Khan, a déclaré que l’agence avait l’intention de protéger les Américains contre la surveillance commerciale illégale et les pratiques de sécurité des données avec “urgence et rigueur”.

Trouver un équilibre entre la protection des consommateurs et le fait de ne pas entraver l’innovation

En Chine, les autorités ont récemment interdit la création des deepfakes sans le consentement de la personne copiée. Par le bais de la loi sur l’IA, les Européens veulent ajouter des messages d’avertissement pour indiquer que les gens interagissent avec des deepfakes ou des images, des sons ou vidéos générés par une intelligence artificielle.

Toutes ces réglementations pourraient façonner la manière dont les entreprises technologiques construisent, utilisent et vendent les technologies d’IA. Cependant, les régulateurs doivent trouver un équilibre délicat entre la protection des consommateurs et le fait de ne pas entraver l’innovation, ce que les lobbyistes de la tech n’ont pas peur de leur rappeler.

L’IA est un domaine qui se développe à la vitesse de l’éclair. Le défi consistera à faire en sorte que les règles soient suffisamment précises pour être efficaces mais pas trop spécifiques afin d’éviter qu’elles deviennent rapidement obsolètes. À l’instar des efforts déployés par l’Union européenne pour réglementer la protection des données, si les nouvelles lois sont appliquées correctement, 2023 pourrait marquer le début d’une ère de développement d’une IA plus respectueuse de la vie privée et de l’équité. Une ère attendue depuis longtemps.


À LIRE AUSSI

Union européenne : les entreprises tenues responsables des dommages causés par l’IA ?

BLOOM, une intelligence artificielle capable de comprendre n’importe quel texte, en 46 langues, et d’en restituer les informations principales

Les grandes entreprises technologiques ne sont pas les seuls acteurs à la pointe en matière d’IA. Une révolution open source a commencé à égaler, voire à dépasser, ce que font les laboratoires les plus riches.

L’an dernier, nous avons vu le développement de BLOOM, le premier grande modèle de langue multilingue construit par la communauté et imaginé par la start-up franco-américaine Hugging Face. Nous avons également assisté à une explosion en matière d’innovation autour du modèle d’IA texte-image open-source Stable Diffusion. Ce dernier a rivalisé avec DALL-E 2 d’OpenAI.

Les grandes entreprises qui ont historiquement dominé la recherche en IA procèdent à des licenciements massifs et à des gels d’embauche alors que les perspectives économiques mondiales s’assombrissent. La recherche sur l’IA coûte cher et, à mesure que les cordons de la bourse se resserrent, les entreprises devront faire très attention aux projets dans lesquels elles investissent. Elles choisiront probablement ceux qui ont susceptibles de leur rapporter le plus d’argent plutôt que les projets les plus innovants, intéressants ou expérimentaux. C’est ce qu’explique Oren Etzioni, PDG de l’Allen Institute for AI, un organisme de recherche.

Cette orientation vers les résultats se fait déjà sentir chez Meta. L’entreprise a réorganisé ses équipes de recherche sur l’IA et a transféré un grand nombre d’entre elles au sein d’équipes chargées de la fabrication de produits.

Tandis que les grandes entreprises se serrent la ceinture, les nouvelles sociétés tape-à-l’oeil qui travaillent sur l’IA générative connaissent un regain d’intérêt de la part des fonds de capital-risque.

Selon Oren Etzioni, cette année pourrait constituer une aubaine pour les jeunes entreprises spécialisée dans l’intelligence artificielle. Il y a beaucoup de talents sur le marché et, souvent, en période de récession, les gens ont tendance à repenser leur vie – retourner dans le monde universitaire ou quitter une grande entreprise pour une start-up, par exemple.

Les start-up et les universités pourraient devenir les centres de gravité de la recherche fondamentale, estime Mark Surman, directeur exécutif de la Fondation Mozilla.

“Nous entrons dans une ère où [le programme de recherche sur l’IA] sera moins défini par les grandes entreprises”, considère-t-il. “C’est une opportunité”.

L’ère de la pharmatech est-elle lancée ?

Ces dernières années, le potentiel de l’IA pour révolutionner l’industrie pharmaceutique est devenu évident. AlphaFold de DeepMind, une IA capable de prédire la structure des protéines (la clé de leurs fonctions), a ouvert la voie à de nouveaux types de recherche en biologie moléculaire, aidant les chercheurs à comprendre le fonctionnement des maladies et à créer de nouveaux médicaments pour les traiter. En novembre, Meta a dévoilé ESMFold, un modèle beaucoup plus rapide pour prédire la structure des protéines – une sorte d’auto-complétion pour les protéines qui utilise une technique basée sur de grands modèles de langage.

À elles deux, les entreprises DeepMind et Meta ont produit les structures de centaines de millions de protéines, y compris toutes celles connues de la science, et les ont partagées dans de vastes bases de données publiques. Les biologistes et les fabricants de médicaments bénéficient déjà de ces ressources qui rendent la recherche de nouvelles structures de protéines presque aussi simple qu’une recherche sur Internet. Mais 2023 pourrait être l’année où ce travail de base portera réellement ses fruits. DeepMind a transféré ses activités biotechnologiques dans une société distincte, Isomorphic Labs, qui est restée secrète depuis plus d’un an. Il y a de fortes chances qu’elle sorte quelque chose d’important cette année.

Plus loin dans la chaîne de développement des médicaments, des centaines de start-up explorent aujourd’hui les moyens d’utiliser l’IA pour accélérer la découverte de médicaments et même concevoir des types de médicaments inconnus jusqu’ici. Actuellement, 19 médicaments développés par des entreprises pharmaceutiques spécialisées en IA sont en phase d’essais cliniques (contre zéro en 2020) et d’autres y arriveront dans les mois à venir. Il est possible que les premiers résultats de certains d’entre eux soient publiés cette année, ce qui permettrait au premier médicament développé avec l’aide de l’IA d’arriver sur le marché.

Toutefois, les essais cliniques peuvent prendre des années. Malgré tout, l’ère de la pharmatech est arrivée et il n’y aura pas de retour en arrière. “Si tout est fait correctement, je pense que nous verrons des choses incroyables et assez étonnantes se produire dans cet espace”, déclare Lovisa Afzelius qui travaille pour Flagship Pioneering, une société de capital-risque qui investit dans les biotechnologies.

Article de Melissa Heikkilä et Will Douglas Heaven, traduit de l’anglais par Kozi Pastakia.


À LIRE AUSSI

Des laboratoires de biotechnologie utilisent l’IA pour inventer de nouveaux médicaments

We want to say thanks to the writer of this article for this amazing web content

Intelligence artificielle : voici ce qui nous attend en 2023

Check out our social media profiles and also other pages related to themhttps://yaroos.com/related-pages/