High Tech

Appel à la supervision de l’IA par d’anciens employés d’OpenAI

Plusieurs anciens employés d’OpenAI ont récemment adressé une lettre ouverte, mettant en lumière les préoccupations concernant la suppression de la critique et de la supervision dans les entreprises d’intelligence artificielle (IA). Cette lettre, signée par 13 personnes dont 6 ont choisi de rester anonymes, a également été soutenue par Geoffrey Hinton, ancien de Google. Elle appelle les entreprises d’IA à s’engager à respecter des principes de critique ouverte, notamment en évitant la création de clauses de non-dénigrement et en permettant aux employés actuels et anciens de signaler des problèmes de manière anonyme et vérifiable.

Les signataires de la lettre ont exprimé leurs inquiétudes quant aux risques associés à l’IA, soulignant les dangers potentiels tels que l’entretien des inégalités, la manipulation de l’information et la possibilité d’extinction de l’humanité. Ils ont également critiqué le manque de protection adéquate pour les lanceurs d’alerte, affirmant que les mesures actuelles se concentrent principalement sur les activités illégales plutôt que sur les préoccupations non réglementées.

Cette initiative survient dans un contexte où plusieurs entreprises d’IA, dont Google et Microsoft, ont été critiquées pour leur supervision insuffisante en matière de sécurité. Des produits tels que les aperçus d’IA dans la recherche de Google et le Copilot Designer de Microsoft ont suscité des préoccupations quant à leur utilisation potentiellement dangereuse.

Plus récemment, plusieurs chercheurs d’OpenAI ont démissionné après la dissolution de l’équipe « Superalignment » de l’entreprise, ainsi que le départ du co-fondateur Ilya Sutskever. Ces événements ont soulevé des questions sur l’orientation de la société en matière de sécurité et de surveillance.

Malgré ces défis, OpenAI a mis en place une nouvelle équipe de sécurité dirigée par le PDG Sam Altman, dans le but de renforcer les mesures de supervision et de répondre aux préoccupations croissantes en matière de sécurité.

Cette lettre ouverte et les développements récents chez OpenAI mettent en lumière les tensions croissantes entre l’innovation en matière d’IA et la nécessité de garantir une supervision adéquate pour prévenir les risques potentiels. Alors que l’IA continue de progresser à un rythme rapide, il est de plus en plus important que les entreprises du secteur s’engagent à promouvoir la critique ouverte et à mettre en place des mesures de sécurité robustes pour protéger les intérêts de tous les acteurs concernés.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *