VIDEO | ChatGPT-maker OpenAI komt met krankzinnige AI voor video
OpenAI, het bedrijf achter ChatGPT, introduceert met Sora een krankzinnige AI voor video. Iemand nog realistische beelden nodig voor zijn project?
OpenAI heeft ons door middel van ChatGPT en DALL-E al op indrukwekkende wijze kennis laten maken met AI, maar doet er met Sora nog een schepje bovenop.
Dankzij dit nieuwe taalmodel is het mogelijk om tekst om te zetten naar video. Een oude man in een café tot een vrouw in Tokio: hoe gedetailleerder het beschreven wordt, hoe realistischer het beeld. En dat is, op z’n zachtst gezegd, doodeng.
OpenAI (ChatGPT) dropt Sora
Oke, Sora dus. Het nieuwe taalmodel dat zich volledig richt op video is pittig imposant te noemen. En dan drukken we het stiekem nog best wel zacht uit. De kwaliteit van de beelden die het genereert ligt ongelooflijk hoog en realisme speelt een grote rol.
Even in een notendop: net als bij ChatGPT en Dall-E is het mogelijk om beelden te genereren door middel van een korte beschrijving. Kies voor ‘historische beelden van Californië tijdens de Gold Rush” en voor je het weet zit je midden in het iconische tijdperk.
Hoe langer en gedetailleerder je de beschrijving maakt, hoe gedetailleerder de video is die eruit komt. Langer niet, want tot nu toe is de maximale lengte van een video 60 seconden.
Beelden zijn te gebruiken als B-roll voor je eigen producties of gewoon los op social media. Zeker als er drone-shots van bekende locaties worden gegenereerd waar onze mond van openvalt. Maar dat laat ik je in onderstaande video met liefde zien.
Interessant, dope, problematisch en doodeng
Sora is bijster interessant en super imposant, maar natuurlijk ook doodeng. Ja, het is vet om bepaalde ideeën in je hoofd tot leven te wekken, maar er zit ook een gevaarlijk kantje aan het verhaal. Zeker met de aankomende Amerikaanse verkiezingen en de oorlogen die gaande zijn.
OpenAI laat zelf weten de handen ineen geslagen te hebben met experts en professionals om ervoor te zorgen dat het gebruik van Sora zo veilig mogelijk blijft. Daarbij ontwerpt het ook tools om ervoor te zorgen dat schadelijke content snel gedetecteerd kan worden.
Hoe dit er in de praktijk precies uit komt te zien en wanneer we zelf aan de slag kunnen weten we allemaal nog niet, maar dat het weer een next-level verhaal is mag duidelijk zijn.
10 iPhone-functies waarvan ik oprecht niet wist dat ze bestonden