Dankzij kunstmatige intelligentie (AI) is het mogelijk een gezicht uit de ene video (de bron) te gebruiken in plaats van een gezicht in een andere video (doel-video). Hiervoor heb je normaliter heel veel data en tijd nodig. Onderzoekers hebben nu een toepassing van machine learning ontwikkeld waarmee je levensechte bewegingen kunt nabootsen op basis van maar één enkel beeldje van iemands gezicht.
Deze methode werkt als volgt. Je brengt herkenningspunten van een gezicht(“facial landmarks”) van een gezicht dat als bron dient aan op data van een gezicht dat als doel wordt gebruikt. Hierdoor doet het ‘doelgezicht’ wat het ‘brongezicht’ doet. Zoals gezegd heb je hiervoor maar één beeldje nodig om een gezicht te maken dat spreekt en verschillende uitdrukkingen heeft.Meer beelden leiden wel tot een hogere kwaliteit. De toepassing maakt wel gebruik van “big data” die vooraf is gegenereerd over identificatieprocessen. Volgens de makers is deze toepassing al behoorlijk nauwkeurig.
Deze toepassing kun je gebruiken binnen de kunsten. Je kunt hiermee bijvoorbeeld klassieke schilderijen of foto’s van overleden beroemdheden tot leven wekken. Maar het wordt natuurlijk ook gemakkelijker om foto’s te manipuleren. We gebruiken bovendien gezichtsherkenning ook steeds vaker om in te loggen op systemen. Wellicht kan deze technologie ook misbruikt worden als het gaat om gezichtsherkinng.
Devin Coldewey noemt deze ontwikkeling in TechCrunch “eerie and fascinating”. Volgens hem kun je wachten op het moment dat je ook een heel lichaam kunt laten bewegen. Dan kan deze technologie volgens mij een nieuwe impuls geven aan de vermenselijking van robots.
This content is published under the Attribution 3.0 Unported license.
Geef een reactie