Microsoft et la lutte contre les contenus abusifs en ligne
Depuis 2015, Microsoft a été à l'avant-garde de la lutte contre la diffusion d'images intimes non consenties, en mettant en place des politiques et des outils technologiques pour limiter les dégâts causés par ces abus. La prolifération de l'IA générative a néanmoins rendu ces efforts plus complexes. Aujourd'hui, Microsoft reconnaît que ces images, qu'elles soient réelles ou générées de manière synthétique, ont des conséquences profondes dans la vie des victimes, à la fois en termes de réputation et de bien-être émotionnel.
Dans cette optique, l'entreprise continue de proposer des solutions adaptées aux évolutions technologiques et législatives. Un livre blanc, publié le 30 juillet 2024, présente une série de recommandations destinées aux législateurs pour protéger les citoyens contre les contenus générés abusivement par IA, en mettant l'accent sur la protection des femmes et des enfants.
Dans cette optique, l'entreprise continue de proposer des solutions adaptées aux évolutions technologiques et législatives. Un livre blanc, publié le 30 juillet 2024, présente une série de recommandations destinées aux législateurs pour protéger les citoyens contre les contenus générés abusivement par IA, en mettant l'accent sur la protection des femmes et des enfants.
Un partenariat avec StopNCII pour une meilleure protection
Parmi les nouvelles initiatives présentées par Microsoft le 5 septembre 2024, le partenariat avec StopNCII (Stop Non-Consensual Intimate Images) marque un tournant. Cette plateforme permet aux victimes de créer un "hash", une empreinte numérique de leurs images intimes, sans que celles-ci ne quittent leurs appareils. Ce hash peut ensuite être utilisé par des partenaires technologiques pour détecter ces images et les supprimer de leurs services.
En mars 2024, Microsoft a renforcé ce dispositif en intégrant une nouvelle fonctionnalité de PhotoDNA dans la base de données StopNCII. Depuis lors, l'entreprise a pu agir sur près de 268 899 images, retirées des résultats de recherche de Bing, et envisage d'étendre cette collaboration. Les utilisateurs inquiets de la diffusion d'images intimes peuvent signaler leurs cas directement à StopNCII pour activer cette protection.
Microsoft reconnaît que les abus liés aux images intimes non consenties représentent un défi pour l'ensemble de la société. L'entreprise participe activement à des groupes de travail multilatéraux, notamment aux côtés du Center for Democracy & Technology, de la Cyber Civil Rights Initiative et du National Network to End Domestic Violence, afin de promouvoir les meilleures pratiques et de sensibiliser aux dangers de ces abus. Enfin, Microsoft salue les efforts gouvernementaux, notamment via l'Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, qui visent à établir des normes pour la sécurité de l'IA. Ces collaborations doivent permettre de mieux encadrer les abus d'images intimes, tout en plaçant les victimes au centre de la réponse.
En mars 2024, Microsoft a renforcé ce dispositif en intégrant une nouvelle fonctionnalité de PhotoDNA dans la base de données StopNCII. Depuis lors, l'entreprise a pu agir sur près de 268 899 images, retirées des résultats de recherche de Bing, et envisage d'étendre cette collaboration. Les utilisateurs inquiets de la diffusion d'images intimes peuvent signaler leurs cas directement à StopNCII pour activer cette protection.
Microsoft reconnaît que les abus liés aux images intimes non consenties représentent un défi pour l'ensemble de la société. L'entreprise participe activement à des groupes de travail multilatéraux, notamment aux côtés du Center for Democracy & Technology, de la Cyber Civil Rights Initiative et du National Network to End Domestic Violence, afin de promouvoir les meilleures pratiques et de sensibiliser aux dangers de ces abus. Enfin, Microsoft salue les efforts gouvernementaux, notamment via l'Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, qui visent à établir des normes pour la sécurité de l'IA. Ces collaborations doivent permettre de mieux encadrer les abus d'images intimes, tout en plaçant les victimes au centre de la réponse.