Ilona Braam
Ilona Braam | LinkedIn Tech 3 aug 2019

Harvard zet kunstmatige intelligentie in om fake news te spotten

Hoe geavanceerder kunstmatige intelligentie wordt, hoe meer het ons zou kunnen helpen met allerlei problemen op aarde. Maar zoals we weten is er altijd ook een keerzijde. En wat AI betreft hoeft dat niet meteen zo dramatisch te zijn als een scenario waarbij we overgenomen worden door robots. Een probleem waar we nu al mee te maken hebben is fake news. Harvard heeft nu echter een tool ontwikkeld samen met het MIT-IBM Watson AI LAB waarbij AI juist wordt ingezet om nepnieuws gecreëerd door kunstmatige intelligentie aan te pakken.

Zo voorspelbaar

De nieuwe tool gaat onder de naam Giant Language Model Test Room (GLTR) en kan kunstmatig gegenereerde teksten spotten aan hoe voorspelbaar ze zijn. Die voorspelbaarheid is namelijk wat kunstmatige intelligentie gebruikt om teksten te creëren die door een mens geschreven lijken te zijn. So hebben researchers bij OpenAI bijvoorbeeld een boel teksten gevoerd aan een machine-learning systeem, dat uiteindelijk leerde om statistische patronen te vinden. Deze patronen worden vervolgens door een algoritme gebruikt om teksten te schrijven.

robot computer

Kleurtjes verraden AI

Maar het zijn juist deze patronen die verraden dat het om een AI gaat, ondanks het feit dat er met de tekst zelf niks mis lijkt te zijn. Om te zien of een tekst mogelijk door een AI is geschreven, highlight de GLTR tool de woorden in de tekst. Groen is voor de meest voorspelbare worden, terwijl de woorden die wat minder voorspelbaar zijn een geel of rood kleurtje krijgen. De minst voorspelbare woorden worden weer paars gehighlight.

De tekst hieronder is geschreven door het OpenAi algoritme en zoals je kunt zien zijn er behoorlijk wat woorden groen gehighlight. En natuurlijk weten we al dat het stuk door kunstmatige intelligentie is geschreven. Maar als je dat nog niet zou weten, zou het overweldigende groen een goede indicatie zijn.

OpenAI tekst met GLTR kunstmatige intelligentie tool

Kunstmatige intelligentie vs. mens

Uiteraard zijn er wat testen gedaan met de GLTR tool en het onderzoeksteam vroeg ook taalverwerking studenten om te kijken of ze AI gegenereerde teksten konden spotten. De studenten hadden het in 54 procent van de gevallen door, terwijl GLTR een stukje hoger scoorde met 72 procent. De nieuwe tool zou handig zijn voor nieuwssites en social media platformen om te checken of teksten wel door mensen zijn geschreven. Het zou anders wat worden als je zelf telkens aan de slag moest met een AI tool om teksten onder de loep te nemen.

Kunstmatige intelligentie vinden we overigens zo’n beetje overal. Zo gebruikt deze elektrische fiets bijvoorbeeld een AI om ervoor te zorgen dat de batterij het altijd volhoudt tot je eindbestemming en dat je onderweg altijd de juiste ondersteuning krijgt.

Technology Review

Reageer op artikel:
Harvard zet kunstmatige intelligentie in om fake news te spotten
Sluiten