6.4 C
New York

Remark créer, publier et partager l’IA générative de manière responsable


« Si nous voulons vraiment nous attaquer à ces problèmes, nous devons être sérieux », déclare Farid. Par exemple, il souhaite que les fournisseurs de providers cloud et les magasins d’functions tels que ceux exploités par Amazon, Microsoft, Google et Apple, qui font tous partie du PAI, interdisent les providers qui permettent aux gens d’utiliser la technologie deepfake dans le however de créer des relations sexuelles non consensuelles. imagerie. Filigranes sur tout le contenu généré par l’IA devrait également être obligatoire, et non volontaire, dit-il.

Une autre selected importante qui manque est de savoir remark les systèmes d’IA eux-mêmes pourraient être rendus plus responsables, explique Ilke Demir, chercheur principal chez Intel qui dirige les travaux de l’entreprise sur le développement responsable de l’IA générative. Cela pourrait inclure plus de détails sur la façon dont le modèle d’IA a été formé, quelles données y sont entrées et si les modèles d’IA génératifs ont des biais.

Les directives ne mentionnent pas qu’il n’y a pas de contenu toxique dans l’ensemble de données des modèles d’IA générative. « C’est l’un des moyens les plus significatifs le mal est causé par ces systèmes », explique Daniel Leufer, analyste principal des politiques au sein du groupe de droits numériques Entry Now.

Les lignes directrices comprennent une liste des préjudices que ces entreprises souhaitent prévenir, tels que la fraude, le harcèlement et la désinformation. Mais un modèle d’IA générative qui crée toujours des Blancs fait également du mal, et qui n’est pas actuellement répertorié, ajoute Demir.

Farid soulève une query plus fondamentale. Étant donné que les entreprises reconnaissent que la technologie pourrait entraîner de graves dommages et proposent des moyens de les atténuer, « pourquoi ne posent-elles pas la query » Devrions-nous faire cela en premier lieu? «  »

Related Articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Latest Articles