Vers une utilisation éthique des données d'entraînement de l'IA
La Dataset Providers Alliance ouvre la voie à une nouvelle ère de gestion responsable des données.
Dans le secteur de l'intelligence artificielle, une question cruciale se pose: comment gérer de manière éthique et efficace les données nécessaires à l'entraînement des modèles ? Alors que la première vague d'outils d'IA générative s'est largement appuyée sur des données publiques (en d'autres termes, tout ce qui pouvait être récupéré sur Internet), nous assistons aujourd'hui à un changement de paradigme. Les sources de données d'entraînement restreignent de plus en plus l'accès et poussent à la mise en place d'accords de licence. Face à cette situation, de nouvelles startups spécialisées dans leur gestion ont vu le jour pour maintenir le flux de matériel source.
L'émergence de la Dataset Providers Alliance
Au cœur de cette évolution se trouve la Dataset Providers Alliance (DPA), un groupe professionnel formé cet été. Son objectif ? Rendre l'industrie de l'IA plus standardisée et équitable. Pour ce faire, elle vient de publier un document exposant ses positions sur les principaux enjeux liés au secteur. Cette alliance regroupe sept entreprises spécialisées dans les licences d'IA, dont Rightsify (gestion des droits d'auteur musicaux), Pixta (place de marché japonaise de photos stock) et Calliope Networks (startup de gestion des droits d'auteur pour l'IA générative).
Continuez votre lecture avec un essai gratuit de 7 jours
Abonnez-vous à ActuTech pour continuer à lire ce post et obtenir 7 jours d'accès gratuit aux archives complètes des posts.