6.8 C
New York

Rencontrer le second de l’IA : faire progresser l’avenir grâce à une IA responsable


Au début de l’été dernier, un petit groupe de hauts dirigeants et d’specialists responsables de l’IA chez Microsoft a commencé à utiliser une technologie d’OpenAI similaire à ce que le monde connaît maintenant sous le nom de ChatGPT. Même pour ceux qui avaient travaillé en étroite collaboration avec les développeurs de cette technologie chez OpenAI depuis 2019, les progrès les plus récents semblaient remarquables. Les développements de l’IA que nous avions prévus vers 2033 arriveraient plutôt en 2023.

Si l’on se penche sur l’histoire de notre industrie, certaines années charnières se démarquent. Par exemple, l’utilisation d’Web a explosé avec la popularité du navigateur en 1995, et la croissance des smartphones s’est accélérée en 2007 avec le lancement de l’iPhone. Il est désormais possible que 2023 marquera un level d’inflexion critique pour l’intelligence artificielle. Les opportunités pour les gens sont énormes. Et les responsabilités de ceux d’entre nous qui développent cette technologie sont encore plus grandes. Nous devons utiliser cette année charnière non seulement pour lancer de nouvelles avancées en matière d’IA, mais pour faire face de manière responsable et efficace aux promesses et aux périls qui nous attendent.

Les enjeux sont élevés. L’IA pourrait bien représenter l’avancée technologique la plus importante de notre époque. Et bien que cela en dise beaucoup, il y a de bonnes raisons de le dire. L’IA de pointe d’aujourd’hui est un outil puissant pour faire progresser la pensée critique et stimuler l’expression créative. Il permet non seulement de rechercher des informations mais aussi de chercher des réponses à des questions. Cela peut aider les gens à découvrir des informations parmi des données et des processus complexes. Cela accélère notre capacité à exprimer plus rapidement ce que nous apprenons. Peut-être le plus essential, il fera de mieux en mieux toutes ces choses dans les mois et les années à venir.

J’ai eu l’event pendant de nombreux mois d’utiliser non seulement ChatGPT, mais aussi les companies internes d’IA en cours de développement au sein de Microsoft. Chaque jour, je me retrouve à apprendre de nouvelles façons de tirer le meilleur parti de la technologie et, plus essential encore, à réfléchir aux dimensions plus larges qui découleront de cette nouvelle ère de l’IA. Les questions ne manquent pas.

Par exemple, qu’est-ce que cela va changer ?

Au fil du temps, la réponse courte est presque tout. Parce que, comme aucune technologie avant elle, ces avancées de l’IA augmentent la capacité de l’humanité à penser, raisonner, apprendre et s’exprimer. En effet, la révolution industrielle touche désormais le travail du savoir. Et le travail du savoir est fondamental pour tout.

Cela offre d’énormes opportunités pour améliorer le monde. L’IA améliorera la productivité et stimulera la croissance économique. Il réduira la pénibilité de nombreux emplois et, lorsqu’il est utilisé efficacement, il aidera les gens à être plus créatifs dans leur travail et à avoir un affect sur leur vie. La capacité de découvrir de nouvelles informations dans de grands ensembles de données entraînera de nouvelles avancées en médecine, de nouvelles frontières scientifiques, de nouvelles améliorations dans les affaires et de nouvelles défenses plus solides pour la cybersécurité et la sécurité nationale.

Sera tous les changements sont bons?

Bien que je souhaite que la réponse soit oui, bien sûr ce n’est pas le cas. Comme toutes les applied sciences qui l’ont précédée, certaines personnes, communautés et pays transformeront cette avancée en un outil et une arme. Certains utiliseront malheureusement cette technologie pour exploiter les failles de la nature humaine, cibler délibérément des personnes avec de fausses informations, saper la démocratie et explorer de nouvelles façons de faire progresser la poursuite du mal. Malheureusement, les nouvelles applied sciences font ressortir le meilleur et le pire chez les gens.

Peut-être plus que tout, cela crée un profond sentiment de responsabilité. À un niveau, pour nous tous; et, à un niveau encore plus élevé, pour ceux d’entre nous impliqués dans le développement et le déploiement de la technologie elle-même.

Il y a des jours où je suis optimiste et des moments où je suis pessimiste quant à la façon dont l’humanité utilisera l’IA. Plus que tout, nous avons tous besoin d’être déterminé. Nous devons entrer dans cette nouvelle ère avec enthousiasme pour la promesse, mais avec nos yeux grands ouverts et résolus à aborder les inévitables pièges qui nous attendent également.

La bonne nouvelle est que nous ne partons pas de zéro.

Chez Microsoft, nous travaillons à la building d’une infrastructure d’IA responsable depuis 2017. Cela a évolué en parallèle avec des travaux similaires dans les domaines de la cybersécurité, de la confidentialité et de la sécurité numérique. Il est connecté à un cadre plus massive de gestion des risques d’entreprise qui nous a aidés à créer les principes, les politiques, les processus, les outils et les systèmes de gouvernance pour une IA responsable. En cours de route, nous avons travaillé et appris avec les specialists en IA tout aussi engagés et responsables d’OpenAI.

Nous devons maintenant nous engager à nouveau dans cette responsabilité et faire appel aux six dernières années de travail pour faire encore plus et aller encore plus vite. Chez Microsoft et OpenAI, nous reconnaissons que la technologie continuera d’évoluer, et nous nous engageons tous les deux à un engagement et à une amélioration continus.

La base d’une IA responsable

Depuis six ans, Microsoft investit dans un programme interentreprises pour s’assurer que nos systèmes d’IA sont responsables intentionnellement. En 2017, nous avons lancé le comité Aether avec des chercheurs, des ingénieurs et des specialists en politiques pour se concentrer sur les questions d’IA responsable et aider à élaborer le Principes de l’IA que nous avons adopté en 2018. En 2019, nous avons créé l’Workplace of Accountable AI pour coordonner la gouvernance responsable de l’IA et lancé la première model de notre Accountable AI Customary, un cadre permettant de traduire nos principes de haut niveau en conseils pratiques pour nos équipes d’ingénierie. En 2021, nous avons décrit la clé blocs de building pour opérationnaliser ce programme, y compris une construction de gouvernance élargie, une formation pour doter nos employés de nouvelles compétences, ainsi que des processus et des outils pour soutenir la mise en œuvre. Et, en 2022, nous avons renforcé notre Norme d’IA responsable et l’a pris à sa deuxième model. Ceci énonce remark nous allons construire des systèmes d’IA en utilisant des approches pratiques pour identifier, mesurer et atténuer les dommages à l’avance, et nous assurer que les contrôles sont intégrés à nos systèmes dès le départ.

Notre apprentissage de la conception et de la mise en œuvre de notre programme d’IA responsable a été fixed et essentiel. L’une des premières choses que nous avons faites à l’été 2022 a été d’engager une équipe multidisciplinaire pour travailler avec OpenAI, s’appuyer sur leurs recherches existantes et évaluer remark la dernière technologie fonctionnerait sans qu’aucune garantie supplémentaire ne lui soit appliquée. Comme pour tous les systèmes d’IA, il est essential d’aborder les efforts de création de produits avec une base de référence initiale qui fournit une compréhension approfondie non seulement des capacités d’une technologie, mais aussi de ses limites. Ensemble, nous avons identifié certains risques bien connus, tels que la capacité d’un modèle à générer du contenu qui perpétue les stéréotypes, ainsi que la capacité de la technologie à fabriquer des réponses convaincantes, mais factuellement incorrectes. Comme pour toute facette de la vie, la première clé pour résoudre un problème est de le comprendre.

Forts de ces premières informations, les specialists de notre écosystème d’IA responsable ont pris des mesures supplémentaires. Nos chercheurs, specialists en politiques et équipes d’ingénieurs ont uni leurs forces pour étudier les dommages potentiels de la technologie, créer des pipelines de mesure sur mesure et itérer sur des stratégies d’atténuation efficaces. Une grande partie de ce travail était sans précédent et certains d’entre eux ont remis en query notre pensée actuelle. Chez Microsoft et OpenAI, les gens ont fait des progrès rapides. Cela a renforcé pour moi la profondeur et l’étendue de l’experience nécessaire pour faire progresser l’état de l’artwork en matière d’IA responsable, ainsi que le besoin croissant de nouvelles normes, requirements et lois.

Construire sur cette base

Alors que nous nous tournons vers l’avenir, nous ferons encore plus. Alors que les modèles d’IA continuent de progresser, nous savons que nous devrons aborder des questions de recherche nouvelles et ouvertes, combler les lacunes de mesure et concevoir de nouvelles pratiques, modèles et outils. Nous aborderons la route avec humilité et un engagement à écouter, apprendre et nous améliorer chaque jour.

Mais nos propres efforts et ceux d’autres organisations aux vues similaires ne suffiront pas. Ce second de transformation pour l’IA appelle à une imaginative and prescient plus massive des impacts de la technologie – à la fois positifs et négatifs – et à un dialogue beaucoup plus massive entre les events prenantes. Nous devons avoir des conversations larges et approfondies et nous engager dans une motion commune pour définir les garde-fous de l’avenir.

Nous croyons que nous devrions nous concentrer sur trois objectifs clés.

Premièrement, nous devons nous assurer que l’IA est conçue et utilisée de manière responsable et éthique. L’histoire nous enseigne que les applied sciences transformatrices comme l’IA nécessitent de nouvelles règles de conduite. Les efforts proactifs et d’autoréglementation des entreprises responsables contribueront à ouvrir la voie à ces nouvelles lois, mais nous savons que toutes les organisations n’adopteront pas volontairement des pratiques responsables. Les pays et les communautés devront utiliser des processus législatifs démocratiques pour engager des conversations avec l’ensemble de la société sur les limites à tracer pour garantir que les personnes bénéficient d’une safety en vertu de la loi. À notre avis, une réglementation efficace de l’IA devrait se concentrer sur les functions les plus à risque et être axée sur les résultats et sturdy face à l’évolution rapide des applied sciences et à l’évolution des attentes de la société. Pour diffuser les avantages de l’IA aussi largement que attainable, les approches réglementaires dans le monde entier devront être interopérables et adaptatives, tout comme l’IA elle-même.

Deuxièmement, nous devons veiller à ce que l’IA fasse progresser la compétitivité internationale et la sécurité nationale. Bien que nous souhaitions qu’il en soit autrement, nous devons reconnaître que nous vivons dans un monde fragmenté où la supériorité technologique est au cœur de la compétitivité internationale et de la sécurité nationale. L’IA est la prochaine frontière de cette compétition. Avec la combinaison d’OpenAI et de Microsoft, et de DeepMind au sein de Google, les États-Unis sont bien placés pour conserver leur management technologique. D’autres investissent déjà, et nous devrions chercher à étendre cette assise parmi d’autres nations attachées aux valeurs démocratiques. Mais il est également essential de reconnaître que le troisième acteur majeur de cette prochaine obscure d’IA est l’Académie d’intelligence artificielle de Pékin. Et, pas plus tard que la semaine dernière, le chinois Baidu s’est engagé à jouer un rôle de chief dans l’IA. Les États-Unis et les sociétés démocratiques au sens massive auront besoin de leaders technologiques multiples et solides pour faire progresser l’IA, avec un management plus massive en matière de politique publique sur des sujets tels que les données, l’infrastructure de supercalcul de l’IA et les skills.

Troisièmement, nous devons veiller à ce que l’IA serve la société au sens massive, et non de manière étroite. L’histoire a également montré que des avancées technologiques importantes peuvent dépasser la capacité d’adaptation des personnes et des establishments. Nous avons besoin de nouvelles initiatives pour suivre le rythme, afin que les travailleurs puissent être autonomes grâce à l’IA, que les étudiants puissent obtenir de meilleurs résultats scolaires et que les individus et les organisations puissent profiter d’une croissance économique équitable et inclusive. Nos groupes les plus vulnérables, y compris les enfants, auront besoin de plus de soutien que jamais pour prospérer dans un monde propulsé par l’IA, et nous devons veiller à ce que cette prochaine obscure d’improvements technologiques améliore la santé mentale et le bien-être des personnes, au lieu de les éroder progressivement. Enfin, l’IA doit être au service de l’humain et la planète. L’IA peut jouer un rôle central dans la lutte contre la crise climatique, notamment en analysant les résultats environnementaux et en faisant progresser le développement de applied sciences d’énergie propre tout en accélérant la transition vers une électricité propre.

Pour faire face à ce second, nous allons étendre nos efforts de politique publique pour soutenir ces objectifs. Nous nous engageons à former de nouveaux partenariats plus approfondis avec la société civile, les universités, les gouvernements et l’industrie. En travaillant ensemble, nous devons tous acquérir une compréhension plus complète des préoccupations qui doivent être traitées et des options susceptibles d’être les plus prometteuses. Il est maintenant temps de s’associer sur les règles de la route pour l’IA.

Enfin, alors que je me suis retrouvé à réfléchir à ces problèmes ces derniers mois, mon esprit est revenu à maintes reprises à quelques pensées de connexion.

Premièrement, ces questions sont trop importantes pour être laissées aux seuls technologues. Et, de même, il n’y a aucun moyen d’anticiper, et encore moins d’aborder, ces avancées sans impliquer les entreprises technologiques dans le processus. Plus que jamais, ce travail nécessitera une grande tente.

Deuxièmement, l’avenir de l’intelligence artificielle nécessite une approche multidisciplinaire. Le secteur de la technologie a été construit par des ingénieurs. Cependant, si l’IA doit vraiment servir l’humanité, l’avenir exige que nous réunissions des informaticiens et des information scientists avec des personnes de tous horizons et de toutes façons de penser. Plus que jamais, la technologie a besoin de personnes formées en sciences humaines, en sciences sociales et avec une dose plus que moyenne de bon sens.

Enfin, et peut-être le plus essential, l’humilité nous servira mieux que la confiance en soi. Les personnes ayant des opinions et des prédictions ne manqueront pas. Beaucoup vaudront la peine d’être examinés. Mais je me suis souvent retrouvé à penser principalement à ma quotation préférée de Walt Whitman – ou de Ted Lasso, selon votre préférence.

« Soyez curieux, pas juge. »

Nous entrons dans une nouvelle ère. Nous devons apprendre ensemble.

Mots clés: , , , ,

Related Articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Latest Articles