Billet IA #6 : Bientôt des normes relatives au développement et l’usage de l’Intelligence Artificielle ?

Dans ce nouveau billet IA, Yasser doctorant en Intelligence Artificielle chez Alteca revient sur l’interdiction par Google, d’entrainer des IA capables de générer des deepfakes sur sa plateforme Colaboratory. Cette tendance consistant à coller de manière convaincante le visage d’une personne sur un autre visage est de plus en plus utilisée dans des affaires de fraude notamment. Est-ce que cette interdiction suffira à limiter leur propagation ou va-t-elle au contraire encourager des élans de créativité en la matière ? Yasser nous donne son avis ci-dessous.

La nouveauté : 

Google a interdit l’entraînement d’IA pouvant être utilisées pour générer des « deepfakes » sur sa plateforme Google Colaboratory. La mise à jour des conditions d’utilisation, inclut les travaux liés aux deepfakes dans la liste des projets interdits.

Les détails : 

Colaboratory, ou Colab en abrégé, est né d’un projet interne de Google Research fin 2017. Il est conçu pour permettre à quiconque d’écrire et d’exécuter du code Python arbitraire via un navigateur web, en particulier du code pour l’apprentissage automatique et l’analyse de données. À cette fin, Google fournit aux utilisateurs de Colab, un accès au matériel gratuit ou payant, notamment aux GPUs et aux TPUs (Tensor Processing Units) conçues par Google.

Ces dernières années, Colab est devenu la plateforme principale pour les démonstrations et recherches au sein de la communauté d’IA. Il n’est pas rare que les chercheurs qui ont écrit du code incluent des liens vers des pages Colab sur ou à côté des repositories GitHub hébergeant le code. Mais Google n’a pas toujours été très restrictif en ce qui concerne le contenu de Colab, ce qui peut ouvrir la porte à des acteurs qui souhaitent utiliser le service à des fins moins scrupuleuses.

Les utilisateurs du générateur de deepfakes open source DeepFaceLab ont pris connaissance de la modification des conditions d’utilisation, lorsque plusieurs d’entre eux ont reçu un message d’erreur après avoir tenté d’exécuter DeepFaceLab dans Colab. L’avertissement était le suivant : « Vous êtes peut-être en train d’exécuter un code qui n’est pas autorisé, et cela peut restreindre votre capacité à utiliser Colab à l’avenir. Veuillez noter les actions interdites spécifiées dans notre FAQ. »

Les « deepfakes » se présentent sous de nombreuses formes, mais l’une des plus courantes est celle des vidéos où le visage d’une personne est collé de manière convaincante sur un autre visage. Contrairement aux grossiers travaux de Photoshop d’antan, les deepfakes générés par l’IA peuvent reproduire les mouvements du corps, les micro-expressions et les teints de la peau d’une personne mieux que les images de synthèse produites par Hollywood dans certains cas.

Les deepfakes peuvent être inoffensifs, voire divertissants, comme l’ont montré d’innombrables vidéos virales. Mais ils sont de plus en plus utilisés par les pirates informatiques pour cibler les utilisateurs de réseaux sociaux dans le cadre d’extorsions et de fraudes. Plus vilainement, ils ont été utilisés à des fins de propagande politique, par exemple pour créer des vidéos montrant le président ukrainien Volodymyr Zelenskyy en train de prononcer un discours sur la guerre en Ukraine qu’il n’a jamais dit auparavant.

De 2019 à 2021, le nombre de deepfakes en ligne est passé d’environ 14 000 à 145 000, selon une source. Forrester Research a estimé en octobre 2019 que les escroqueries par deepfake coûteraient 250 millions de dollars d’ici à la fin de 2020.

Si le populaire DeepFaceLab ne peut plus être utilisé sur Colab, d’autres outils populaires comme FaceSwap sont encore pleinement opérationnels.

Notre avis : 

Les inquiétudes concernant les « deepfakes » persistent depuis des années, et nombreux sont ceux qui ont demandé des restrictions sur leur utilisation. La décision de Google représente une tentative de limiter l’utilisation ouverte des deepfakes, mais, comme le note Os Keys, professeur adjoint à l’UW, elle ne s’appuie pas sur une politique.

S’il peut sembler avantageux d’imposer une interdiction des deepfakes sur des plates-formes largement utilisées comme Colab, une telle interdiction ne semble pas susceptible de diminuer substantiellement leur diffusion, étant donné la facilité avec laquelle il est possible de rendre le code disponible – de plus, des interdictions de grande envergure pourraient simplement encourager davantage de créativité dans ce domaine. Il semble probable que la bataille entre les deepfakes et les détecteurs continuera à être un jeu du chat et de la souris.

De manière pragmatique, il semble que le meilleur espoir réside dans l’établissement de normes d’utilisation et dans la possibilité pour les chercheurs d’étudier les systèmes de deepfake afin de les contrer.

Sources : https://lastweekin.ai/p/170
https://techcrunch.com/2022/06/01/2328459/