top of page
FLOOR 1.jpg
FLOOR 2.jpg

Onderzoek 3

Voorwoord: 

​

Het derde onderzoek doe ik samen met Babet Scheij: https://babetscheij.wixsite.com/babetscheijda4b

Ons onderwerp is deepfake en het valt in de disciplines nieuwe media en film. Deepfake is nog erg nieuw en niet iedereen heeft er over gehoord maar het kan misschien wel schadelijk zijn voor later. Wij gaan onderzoeken wat voor een invloed het nou precies heeft en dan vooral op de betrouwbaarheid van het nieuws.

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

Inhoud:

  • Inleiding​

  • Wat zijn deepfakes?

  • Hoe werken deepfakes?

  • Waarvoor kan deepfake in worden gezet?

  • Wat zijn de risico’s van deepfake?

  • Wat kan er worden gedaan tegen misbruik van deepfake?

  • Zijn deepfake video's te herkennen?

  • Meet & Greet

  • Conclusie: Wat is de invloed van deepfake op de geloofwaardigheid van het nieuws?

  • Evaluatie

  • Taakverdeling

  • Bronverdeling

Inleiding:

Deepfake is een erg opkomend fenomeen. Nog niet iedereen heeft er van gehoord, maar het kan uitgroeien tot een grote ontwikkeling die goed of niet goed is. Deepfake zorgt ervoor dat mensen iets zeggen of doen wat ze zelf niet gezegd of gedaan hebben. Dit kan grote gevolgen hebben voor de betrouwbaarheid van bepaalde dingen. Wij vonden het nieuws het interessants om te onderzoeken en zo kwamen wij op onze hoofdvraag:

Wat is de invloed van deepfake op de geloofwaardigheid van het nieuws?

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

  • Wat zijn deep fakes?

Deepfakes staat voor zowel video als audio die nep zijn,

maar niet of nauwlijks te onderscheiden zijn van het echt

dankzij een specifieke machine learningtechniek.

Het woord deepfakes is een combinatie van twee Engelse

woorden. Het is namelijk een combinatie van de woorden

deap learning en fake (nep). Deep learning staat voor de

toepassing van diepe, neurale netwerken die twee of

meer verborgen lagen tussen de input- en outputlagen

bevatten. Diepe neurale netwerken zijn in staat om

sluimerende patronen te ontdekken in ongestructureerde

data. Het overgrote deel van alle gegevens wereldwijd zijn ongestructureerd of ongelabeld. Deep learning kan dus ruwe data verwerken, organiseren en bundelen. Als wij mensen naar de afbeelding hiernaast kijken hebben wij geen overzicht over wat de afbeelding (data) wil afbeelden/betekenen. Men ziet geen structuur in de afbeelding. Deep learning kan alle lagen in deze afbeelding herkennen en dus de data optimaal verwerken en organiseren.

 

Deepfake is kort gezegd dus een software die op basis van kunstmatige intelligentie audio en/of bewegend beeld kan manipuleren. De beelden worden gecreëerd op basis van  bestaande data die aan elkaar gekoppeld worden. Hoe meer beschikking over data, hoe gemakkelijker het maken van een video is. In deepfakes video lijkt het dus dat iemand iets zegt of doet, terwijl dit in werkelijkheid nooit is gezegd of nooit is gebeurd.

  • Hoe werken deepfakes?​

De deepfake technologie zorgt ervoor dat mensen iets kunnen doen of zeggen, wat helemaal nooit gezegd of gebeurd is. Om zo’n deepfake video te kunnen maken moet de software eerst een beeld vormen van de persoon die je iets wil laten zeggen. De software gaat video’s waarop bijvoorbeeld Mark Rutte te zien is, beeld voor beeld analyseren. Hierdoor kan de software goed zien wat de omvang en vorm is van het gezicht van Mark Rutte, hoe de verhoudingen van zijn neus en mond zijn en hoe het gezicht beweegt als hij praat. Alle video’s worden geanalyseerd door twee concurrerende machines. De één wordt getraind om slimme videomodellen te maken en de ander wordt juist ingezet om nabootsing te creëren, zo krijg je de meest realistische deepfake video’s. De filmpjes zijn de belangrijkste stukken in het proces van deepfake. Hoe meer filmpjes, hoe beter de software het gezicht van in dit geval Mark Rutte kan analyseren. Dit is ook een van de redenen waarom we vaak beroemdheden in deepfake video’s zien. Als de filmpjes geanalyseerd zijn ontstaat er als het ware een datamodel van de persoon, Mark Rutte. Het datamodel kan vervolgens worden toegepast in een nepvideo en dan kun je Mark Rutte iets laten zeggen wat hij nooit gezegd heeft of iets laten doen wat hij nooit gedaan heeft.

FLOOR 4.jpg
  • Waarvoor kan deep fake in worden gezet?​

De deepfake software is zeer toegankelijk voor de ‘normale burger’. Vroeger werd deze vorm van kunstmatige intelligentie alleen ingezet in filmstudio’s en kostten dat echt bakken met geld. Tegenwoordig kan bijna iedereen met de software experimenteren. In eerste instantie waren de gemanipuleerde video’s in een lage resolutie en dus nauwelijks niet van het echt te onderscheiden. Je zag dus echt aan de video’s dat ze nep waren. Inmiddels zijn we ongeveer twee jaar verder en is de technologie dusdanig verbeterd dat het steeds lastiger wordt om een echte video te onderscheiden van een gefakete video. 

Deep Fake kan het maken en publiceren van misleidende informatie zeer gemakkelijk maken. Een politicus, zanger maar ook je eigen buurvrouw kan men door middel van deze technologie dingen laten zeggen, die hij/zij nooit in het echt heeft gezegd. Hoe makkelijk men gebruik kan maken van deze technologie is dus best wel heel erg gevaarlijk. Bovendien is er nog geen officiële wetgeving op het maken of verspreiden van deep fake. Iedereen kan nu nog maken en publiceren worden zonder rechtelijk gestraft te worden. 

Deepfake wordt ook vaak gebruikt in de porno-industrie.

Men die gebruik maakt van de deep-learning techniek

‘plakt’ het hoofd van een desbetreffend persoon op het

lichaam van iemand geheel anders. Emma Watson.

Michelle Obama. Scarlett Johansson. Alle drie zijn het

beroemde vrouwen, maar ze hebben nog een overeenkomst:

ze spelen de hoofdrol in pornofilmpjes. Hieronder zie je de

verwarring die een deepfake video kan veroorzaken. ‘Michelle

Obama kijkt met haar typische glimlach in de lens. Even later

ontbloot ze haar borsten. Nooit gebeurd – toch niet voor de

lens van een camera – en toch bestaat het filmpje. Welkom in de wereld van 'deepfake’ aldus www.nieuwsblad.be. Sommige mensen dachten daadwerkelijk bij het zien van de video dat ze de ontblote borsten van Michelle Obama zagen.

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

FLOOR 3.png
  • Wat zijn de risico’s van deepfake?

Deepfake video’s zijn een gevaar voor alles wat echt of nep kan zijn. Door middel van de technologie van deepfake kan eigenlijk iedereen iets doen wat hij of zij zelf nooit gedaan heeft. Iemand kan jou bepaalde dingen laten zeggen, maar ook jouw hoofd op het hoofd van iemand plakken waardoor je ineens zomaar meespeelt in een pornofilm. Tot nu toe zijn er alleen video’s opgedoken van bekende Hollywood sterren die ineens meespelen in een pornofilm en van beroemde wereldleiders die iets zeggen wat ze zelf nooit gezegd hebben. Dit is gelukkig ontmaskerd, maar de technologie ontwikkelt zich snel en over een tijd zullen de deepfake video’s niet meer te onderscheiden zijn van echte video’s. Dit is een ernstig gevolg voor de betrouwbaarheid van alle video’s en foto’s die op het internet te vinden zijn. Een groot nadeel is dat voor alle nieuwssites. Vele nieuwssites gebruiken filmpjes als aanleiding voor een artikel, of gebruiken zelfs filmpjes in een artikel. Wanneer zo’n filmpje nep blijkt te zijn, wordt er door betrouwbare nieuwssites nepnieuws verspreid. De vraag is dan welk nieuws nog betrouwbaar is en op er überhaupt nog wel betrouwbaar nieuws is. Deepfake heeft dus een grote invloed op de betrouwbaarheid van het nieuws, maar eigenlijk gewoon in het algemeen op de betrouwbaarheid van video’s of foto’s. Het maken van deepfake video’s of foto’s wordt steeds makkelijker en steeds realistischer. Hierdoor kunnen straks ook normale burgers zulk soort video’s of foto’s maken. Dit kan dan ingezet worden voor het realistisch fotoshoppen van bijvoorbeeld het hoofd van een meisje uit jouw klas op een naakt lichaam. Je kan haar ook mee laten spelen in een pornofilm of dingen laten zeggen die ze zelf nooit zou zeggen. Dit zijn dus weer deepfake video’s op een ander niveau. Voor het maken van deepfake video’s zijn nu nog geen regels en dus is het niet strafbaar, maar je kunt hier iemand wel heel veel schade mee aandoen. Als je nagaat dat er nog steeds mensen zelfmoord plegen omdat ze gepest worden en dan bedenkt dat je door het maken van deepfake video’s eigenlijk nog kunt pesten op een ander niveau is de deepfake technologie echt geen goede ontwikkeling. Deepfake heeft veel gevolgen, maar er is niks strafbaar dus er zitten weinig tot geen risico’s aan om het zelf te doen. Om deepfake te bestrijden denken wij dat er toch echt maatregelen genomen moeten worden en dat het, als het uitloopt naar een verder niveau, strafbaar moet worden.

  • Wat kan er worden gedaan tegen misbruik van deep fake?

  • Zijn deepfake video's te herkennen?

Het herkennen deepfake video’s wordt steeds lastiger. Wel zijn er dingen die lastig na te bootsen zijn in deepfake video’s. Zo is het nabootsen van knipperende ogen en het laten bewegen van de mond in één lijn met de rest van het lichaam erg lastig. Andere dingen waar je deepfake video’s aan kunt herkennen zijn de vervaagde pixels in het beeld of de mond die hele rare bewegingen maakt. Voor deze punten moet je de video goed bekijken en hem misschien wel een paar keer vertraagd afspelen, dit kost dus heel wat tijd. Iets waar je de video bijvoorbeeld niet voor hoeft te kijken, is het uitzoeken van de bron. Is NOS of BBC bijvoorbeeld de nieuwsbron, dan is er een grote kans dat de video echt is. Is de afzender onbekend, kan dat de eerste aanwijzing zijn voor onbetrouwbaarheid. Het kan ook zijn dat er wel een afzender staat maar dat je die niet kent, dan kun je proberen om meer te weten te komen over die afzender. Je kunt zoeken op het internet, facebook, twitter, Instagram enz. naar zoveel mogelijk informatie wat kan wijzen op de betrouwbaarheid, of misschien wel de onbetrouwbaarheid van de bron. Er zijn dus heel wat manieren om zelf te kijken of de video echt of nep is, al kost dit wel wat tijd. Als je hier geen zin in hebt kun je bijvoorbeeld kijken naar de betrouwbaarheid van het artikel zelf of je kunt wachten op verschillende tools die deepfake video’s kunnen herkennen. De VS en verschillende universiteiten zijn bezig met het maken en onderzoeken van verschillende tools die straks deepfake video’s moeten kunnen herkennen, maar omdat deepfake zich in zo’n rap tempo ontwikkeld heeft, zijn er helaas nog geen tools gevonden. Deepfake video’s zijn dus te herkennen, al moet je daar wel wat tijd in stoppen en zelfs dan heb je niet altijd kans van slagen.

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

Zoals we al eerder hebben vermeld, nepnieuws is niets nieuws. Het bestaat al honderden jaren lang. Nepnieuws wordt kort gezegd gebruikt om onder andere grote verwarring over waarheden te veroorzaken. Een gevolg van die verwarring is weer chaos. In Nederland is er op dit moment nog geen officiële wetgeving over de aansprakelijkheid en verantwoordelijkheid bij het maken, publiceren of delen van deepfakes. Wel is er sinds eind 2018 een kabinetsplan opgesteld over de mogelijke manieren om nepnieuws te bestrijden. De overheid wil de gehele wereld achter zowel het maken van nepnieuws als de verspreiding van nepnieuws gaan onderzoeken.

Doordat de technologie zich blijft verbeteren wordt het dus steeds moeilijker om van een video te bepalen of het werkelijk is gebeurd of gezegd of dat het vervalst is. Men moet dus proberen zo kritisch mogelijk kijken naar het nieuws wat zij lezen. Men als individu kan niet veel doen tegen de misbruik van Deepfake. Hopelijk komt de overheid binnenkort met een beleid over de deep-learning technologie, zodat iedereen weet waar diegene aan toe is.

Meet&GReet:

Conclusie:

Voor ons derde en laatste onderzoek voor CKV  moesten we natuurlijk weer een passende

Meet&Greet bedenken. 

​

We hadden in de klassikaal ook al de documentaire genaamd Deepfake (https://www.vpro.nl/programmas/tegenlicht/kijk/afleveringen/2018-2019/deep-fake-news.html) gekeken, dat kwam ons dus heel goed uit. De review van deze documentaire

kunt u hieronder vinden. 

​

We kwamen als snel  op het idee om  het Beeld & Geluid museum in Hilversum te bezoeken.

Daar was namelijk afgelopen periode een tentoonstelling te zien over het onderwerp

Deepfake. De tentoonstelling genaamd F*cked by Deepfake is grotendeels opgezet door Theo

Gevers (UVA). We kwamen in het museum in een ruimte terecht die in zijn geheel besteed was

aan het thema Deepfake.  We kregen daar de mogelijkheid om Deepfake bij ons zelf toe te passen, dit was erg leerzaam. Natuurlijk deze educatieve momenten ook vastgelegd. Geniet van de volgende kiekjes en nog wat extra filmpjes waar u al helemaal van kan genieten! 

​

Naast de Meet&Greet van het Beeld&Geluid museum hebben wij twee documentaires gekeken. Één daarvan was in de klas en de andere was nog een korte documentaire van de wereld draait door. En alsof dat nog niet genoeg was hebben we ook  prof Theo Gevers nog gemailed!

Wat is de invloed van deepfake op de geloofwaardigheid van het nieuws?

Deepfake is geen goede ontwikkeling en al helemaal niet als het gaat over de betrouwbaarheid van het nieuws. Nieuwssites gebruiken vaak filmpjes als aanleiding voor hun artikel of zelfs in hun artikel. Als deze filmpjes nep blijken te zijn gaat men twijfelen aan de betrouwbaarheid van het nieuws. Slecht één op de tien Nederlanders gelooft niet meteen wat hij of zij ziet. Dat betekent dat 90% van alle Nederlanders dus gelooft wat hij of zij ziet. Stel er komen dus deepfake video’s in het nieuws waarvan men denkt dat ze echt zijn, kan dat leiden tot een algehele ongeloofwaardigheid van media, politiek en democratie. We kunnen dan dus niet meer vertrouwen op feiten en moeten het hebben van onze eigen kennis. Media, politiek en democratie zijn juist zaken die in Nederland gebaseerd zijn op geloofwaardigheid. Het is dus noodzakelijk dat men weet hoe je echt en nep kunt onderscheiden.

​

​

​

​

​

​

​

​

​

​

​

​

​

​

evaluatie:

Het samenwerken met Babet ging erg goed. Eerst ging het onderzoek niet zo goed omdat we niet zo goed wisten wat we wilden doen. Toen we eindelijk een idee hadden bleek dat Tobias en Bram dat idee al hadden dus dat we toch weer wat anders moesten bedenken, Er was niet superveel informatie te vinden over deepfake, maar wel genoeg om onze deelvragen zo goed mogelijk mee te kunnen beantwoorden. Ik denk dat ik in de les nog steeds meer had kunnen dan dat ik heb gedaan, maar uiteindelijk was het onderzoek toch weer goed op tijd af. Wat ik goed vond aan dit onderzoek is dat wij meerdere meet&greets hadden. We hebben twee documentaires gekeken, zijn naar het museum van beeld&geluid geweest en we hebben een prof gemailed. Hier hebben we best veel informatie uit kunnen halen voor ons onderzoek en ik vind dat we dat heel goed gedaan hebben. 

taakverdeling:

Floor

  • Inleiding

  • Deelvraag 2: Hoe werken deepfakes?

  • Deelvraag 4: Wat zijn de risico’s van deep fake?

  • Deelvraag 6: Deepfake video’s kunnen herkennen?

  • Evaluatie

Babet

  • Inleiding

  • Deelvraag 1: Hoe werken deepfakes?

  • Deelvraag 3: Waarvoor kan deepfake worden ingezet?

  • Deelvraag 5: Wat kan er gedaan worden tegen misbruik van Deepfake?

  • Evaluatie

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

bronverdeling:

Deelvraag 1:

https://www.mediawijsheid.nl/deep-fake/

https://computerworld.nl/markttrends/106128-wat-zijn-deepfakes-precies

https://3bplus.nl/wat-is-deep-learning-een-introductie/

https://3bplus.nl/voorbeelden-van-deep-learning-de-werking-uitgelegd/

https://www.grownhub.nl/deepfake/

​

Deelvraag 2:

https://www.mediawijsheid.nl/deep-fake/

https://computerworld.nl/markttrends/106128-wat-zijn-deepfakes-precies

https://www.linda.nl/nieuws/achtergrond/deep-fake-news-uitleg/

​

Deelvraag 3:

https://www.grownhub.nl/deepfake/

https://www.dutchcowboys.nl/technology/techbedrijven-moeten-samenwerken-om-deepfakes-te-kunnen-stoppen

https://www.nieuwsblad.be/cnt/dmf20180207_03344159

​

Deelvraag 4:

https://www.mediawijsheid.nl/deep-fake/

https://jdreport.com/het-gevaar-van-deepfakes/

https://www.privacyzone.nl/deepfake-porno-naughty-america-kan-met-hacktechniek-jouw-gezicht-in-een-seksfilm-projecteren/

https://www.nrc.nl/nieuws/2018/03/05/gezichtsverlies-in-een-pornofilm-a1594472

​

Deelvraag 5:

https://dataexpert.nl/nieuws-overzicht/2019/04/zien-is-niet-meer-altijd-geloven-hoe-gaat-u-deepfake-en-nepnieuws-tegen

https://tweakers.net/nieuws/141817/vs-maakt-tools-voor-herkennen-deepfake-videos-met-vervangen-gezichten.html

​

Deelvraag 6:

https://www.mediawijsheid.nl/deep-fake/

https://www.frankwatching.com/archive/2019/01/30/deep-fakes-hoe-ai-nepnieuws-nog-gevaarlijker-maakt/

https://www.nrc.nl/nieuws/2018/03/05/gezichtsverlies-in-een-pornofilm-a1594472

https://tweakers.net/nieuws/141817/vs-maakt-tools-voor-herkennen-deepfake-videos-met-vervangen-gezichten.html

bottom of page