Saturday, December 9, 2017

Une IA qui fait de fausses vidéos peut faciliter la fin de la «réalité» telle que nous la connaissons

Quiconque s'inquiète de la capacité des intelligences artificielles (IA) à imiter la réalité est susceptible d'être concerné par la dernière offre de Nvidia: une traduction d'image AI qui vous fera presque certainement deviner tout ce que vous voyez en ligne.

En octobre, Nvidia a démontré la capacité d'une de ses IA à générer des images réalistes et dérangeantes de personnes complètement fausses. Maintenant, la société de technologie a produit un qui peut générer de fausses vidéos.

L'IA fait un travail étonnamment décent consistant à changer de jour en nuit, d'hiver en été, et à héberger des chats dans des guépards (et vice versa).

Meilleur (ou pire?) De tous, l'IA fait tout avec beaucoup moins de formation que les systèmes existants.

À l'instar de l'IA génératrice de visages de Nvidia, cette traduction d'image AI utilise un type d'algorithme appelé un réseau accusatoire génératif (GAN).

Dans un GAN, deux réseaux de neurones travaillent ensemble en travaillant essentiellement l'un contre l'autre. L'un des réseaux génère une image ou une vidéo, tandis que l'autre critique son travail.

Généralement, un GAN nécessite une quantité significative de données étiquetées pour apprendre à générer ses propres données. Par exemple, un système aurait besoin de voir des paires d'images montrant à quoi ressemblait une rue avec et sans neige afin de générer l'une ou l'autre de ces images.

Cependant, cette nouvelle traduction d'image développée par les chercheurs de Nvidia Ming-Yu Liu, Thomas Breuel et Jan Kautz peut imaginer à quoi ressemblerait une version enneigée d'une rue sans jamais la voir.

Faire confiance à ses propres yeux

Liu dit The Verge que la recherche de l'équipe est partagée avec les équipes produit et les clients de Nvidia, et bien qu'il ne puisse pas commenter sur la rapidité ou la mesure dans laquelle l'IA serait adoptée, il a noté qu'il existe plusieurs applications potentielles intéressantes.

"Par exemple, il pleut rarement en Californie, mais nous aimerions que nos voitures autonomes fonctionnent correctement quand il pleut", a-t-il dit.

"Nous pouvons utiliser notre méthode pour traduire des séquences de conduite californiennes ensoleillées en séquences pluvieuses pour entraîner nos voitures autonomes."

Au-delà de ces applications pratiques, la technologie pourrait également avoir des applications fantaisistes. Imaginez être capable de voir comment votre future maison pourrait ressembler au milieu de l'hiver lorsque vous magasinez pour des maisons, ou à quoi ressemblera un lieu de mariage en plein air à l'automne lorsque les feuilles recouvriront le sol.

Cela dit, une telle technologie pourrait aussi avoir des utilisations néfastes. Si largement adopté, notre capacité à faire confiance à n'importe quelle vidéo ou image basée uniquement sur ce que nos yeux nous disent serait grandement diminuée.

Les preuves vidéo pourraient devenir inadmissibles devant les tribunaux, et les fausses nouvelles pourraient devenir encore plus courantes en ligne puisque les vidéos réelles deviennent indiscernables de celles générées par l'IA.

Bien sûr, en ce moment, les capacités de cette IA sont limitées à quelques applications, et jusqu'à ce qu'elle parvienne aux mains des consommateurs, nous n'avons aucun moyen de dire comment cela va affecter la société dans son ensemble.

Pour l'instant, nous ne pouvons qu'espérer que le potentiel de cette technologie incitera à des discussions sur l'IA et une réglementation appropriée car, de toute évidence, l'impact de l'IA va bien au-delà du marché du travail.

Cet article a été publié par Futurism. Lisez l'article original.

No comments:

Post a Comment