
(DVKi/Shutterstock)
Web a été en effervescence avec des nouvelles sur l’IA guerres des moteurs de recherche entre Google et Microsoft. Microsoft a collaboré avec OpenAI pour intégrer une model améliorée de ChatGPT dans son moteur de recherche Bing. En réponse, Google a annoncé Bard, un chatbot concurrent qu’il intégrera à son moteur de recherche populaire.
La nature remarquable de ces géants de la technologie qui se battent pour la suprématie des chatbots suscite l’enthousiasme pour l’innovation dans le domaine de la recherche. Alors que le prepare à la mode proceed de rouler, il a soulevé la query : les chatbots remplaceront-ils réellement les moteurs de recherche ? Certains specialists sont sceptiques à l’égard de cette idée en raison du caractère inhérent défauts dans la technologie sous sa forme actuelle.
Les grands modèles de langage sous-jacents (LLM) qui alimentent ces chatbots, comme ceux d’OpenAI GPT-3.5 et celui de Google LaMDA, sont formés avec des ensembles de données massifs de texte agrégés à partir d’Web ouvert. Bien que les chatbots aient l’avantage de fournir des réponses dans un format conversationnel et humain, ils fournissent souvent des informations inexactes ou totalement fabriquées. Contrairement à la liste de liens vérifiables fournie par un moteur de recherche qui permet à un utilisateur d’évaluer les sources, les chatbots ne citent pas les sources d’data et ne donnent aucune preuve de leurs conclusions.
« Ces choses comprennent le langage. Ils ne comprennent pas la vérité », a déclaré Jonathan Rosenberg, CTO et responsable de l’IA chez Five9, dans une interview avec Datanami.
Rosenberg affirme que les LLM sont l’une des applied sciences les plus transformatrices des 10 à 20 dernières années et qu’il est difficile d’estimer leur affect futur. Mais il émet des réserves du fait des limites actuelles de la technologie : « On apprend à comprendre remark construire le langage, et ce langage est issu de tout le corpus de l’web. Ainsi, les choses dont il peut parler représentent simplement ce qu’il a rencontré sur Web, en le composant de manière à avoir un sens en tant que langage. Et cela signifie que ça va mal tourner », a-t-il déclaré.
Les chatbots sont en proie à des inexactitudes et des hallucinations. Bing et Bard ont déjà commis des erreurs très médiatisées. Google a perdu 100 milliards de {dollars} de sa valeur marchande en un jour après que Bard a affirmé à tort que le télescope James Webb était le premier à photographier des exoplanètes. Dans un démo récenteBing a analysé les rapports sur les revenus de Hole et Lululemon, mais lorsque ses réponses ont été comparées aux rapports réels, il a été démontré que le chatbot avait mélangé certains chiffres et, dans certains cas, les avait complètement inventés.
« L’un des principaux défis de ces grands modèles de langage est qu’ils ne peuvent pas dire « je ne sais pas » et produire à la place une réponse qu’ils jugent exacte. Et souvent, la réponse est loin de la vérité », a déclaré Alexander Ratner, co-fondateur et PDG de IA de plongée en apnéedans une interview par e-mail avec Datanami. « En effet, au ultimate, le modèle est aussi bon que les données sur lesquelles il est formé, et une grande partie des données que nous produisons dans le monde ne sont pas structurées, c’est-à-dire qu’elles ne sont ni étiquetées ni classées. Et un modèle n’a pas le même discernement qu’un humain ; il ne peut pas faire la différence entre de bonnes données et, disons, des données contenant un contenu toxique. C’est également l’une des principales raisons pour lesquelles les grands modèles de langage nécessitent beaucoup plus de curation de données que de recherche.
La conservation des données est le processus de création, d’organisation et de upkeep d’ensembles de données pour rendre les données utilisables dans un however spécifique. Étant donné que les plus grands LLM ont été formés avec des ensembles de données généraux non sélectionnés, ils ne sont actuellement pas idéaux pour trouver des informations spécifiques à un domaine, through l’indexation et l’extraction de mots-clés, comme le fait un moteur de recherche.
Les specialists de Google ont exploré la query de savoir si les LLM pourraient un jour remplacer les moteurs de recherche en 2021 par un doc de recherche, notant que les modèles linguistiques pré-formés sont actuellement des dilettantes détenant des connaissances de floor plutôt que des specialists du domaine. L’article suggest une approche de modèle unifié dans laquelle un modèle LLM récupère et classe les requêtes avec le même composant : paradigme en encodant les connaissances contenues dans un corpus dans un modèle consolidé qui remplace les composants d’indexation, de récupération et de classement des systèmes traditionnels », indique la conclusion de l’article.
Bien qu’un modèle unifié semble prometteur, de nombreuses recherches et travaux doivent être effectués avant qu’un LLM puisse gérer lui-même toutes les tâches de recherche. « Il est compréhensible que les gens soient excités. Ils pensent que (les chatbots) pourraient être une opportunité vraiment perturbatrice automobile ils pourraient remplacer non seulement l’interface de recherche, mais aussi le modèle industrial. Et ils n’ont pas tort; mais ils calculent mal le temps qu’il faudra pour que cela soit vraiment opérationnel », a déclaré Ratner.
Ratner dit que ces chatbots resteront des compagnons dans un avenir prévisible, pas des remplaçants : « La prochaine grande réalité est que les entreprises réaliseront rapidement qu’il y a beaucoup de travail pour que ces modèles fonctionnent pour les cas d’utilisation réels de l’entreprise. Prêts à l’emploi, les grands modèles de langage donnent des résultats de faible qualité sur des données propriétaires et tout ce qui va au-delà de simples tâches », a-t-il déclaré. « Les entreprises, d’autre half, doivent faire face à des ensembles de données petits, bruyants et non prêts pour l’IA, et ont besoin de options d’IA pour résoudre des tâches complexes. Le principal défi pour les entreprises lors de l’adoption de l’IA consiste à : développer des données de formation.
Pour que ces nouveaux outils d’IA soient vraiment utilisables pour la recherche spécifique à un domaine, les modèles de base qui les alimentent nécessiteront des moyens plus efficaces de réglage fin et d’étiquetage des données, ce que la société de Ratner, Snorkel AI, se spécialise Le easy fait d’aspirer les données textuelles non structurées d’Web pour les utiliser comme données de formation pour les LLM n’est pas une approche idéale pour garantir la qualité des données à lengthy terme.
« La qualité des données joue un rôle fondamental dans la development et l’adaptation de modèles pour une utilisation en manufacturing. Et les flux de travail centrés sur les données sont essentiels pour assurer la transparence, l’auditabilité et la gouvernance des purposes d’IA », a déclaré Ratner.
Rosenberg pense également que les chatbots aideront à la recherche mais ne remplaceront pas la recherche. Il voit la technologie comme un accélérateur de ce que les humains peuvent faire, mais une supervision humaine est nécessaire.
« Je pense qu’il y a de la place pour l’innovation dans la façon dont vous combinez ce que (un chatbot) dit avec les résultats de recherche traditionnels », a-t-il déclaré. « C’est la machine de curation ultime qui génère beaucoup plus près de ce que vous voulez que le copier/coller d’autrefois, mais elle a toujours besoin d’une supervision humaine pour la corriger, la réparer, la vérifier et la faire vôtre. Et donc, vous devez le prendre et ajouter une surveillance humaine.
À Cinq9, Rosenberg et ses collègues proposent une plate-forme de centre d’appels basée sur le cloud qui permet aux brokers de communiquer avec les purchasers par téléphone, e-mail et chat. Pour les centres de contact, une utilisation attainable des chatbots serait d’aider les brokers du service consumer, non seulement à trouver des informations, mais aussi à tout ce qui nécessite beaucoup de langage, comme le traitement des transcriptions d’appels pour l’assurance qualité : traiter le langage écrit et répondre avec un langage écrit, cela aura un affect », a-t-il déclaré.
Rosenberg convient que pour dépasser les taux d’hallucinations actuels, il faut organiser l’ensemble de formation et obtenir une meilleure qualité des données. Interrogé sur la possibilité d’une boucle de rétroaction sans fin de contenu généré par l’IA truffé d’inexactitudes, Rosenberg espère qu’il y aura plus de contenu avec une surveillance humaine qu’autrement, mais la technologie sous-jacente des LLM peut continuer à être un problème : « Je pense il y aura toujours des risques, automobile fondamentalement, un grand modèle de langage fait la selected la plus easy et la plus stupide que vous puissiez imaginer. Tout ce qu’il fait, c’est dire, étant donné le nombre X de mots précédents, quelle est ma probabilité la plus élevée pour le mot suivant ? »
Ratner s’inquiète également de la possibilité de problèmes persistants de qualité des données pour les chatbots : « Étant donné que la plupart des grands modèles tels que ChatGPT sont formés sur des données provenant d’Web, le contenu généré par l’IA crée un cercle vicieux d’augmentation de la qualité des données dégradantes conduisant à des résultats moins précis. et ralentir l’adoption huge.
Articles connexes:
Grands modèles de langage en 2023 : ça vaut le battage médiatique ?
Hallucinations, plagiat et ChatGPT