Techbedrijven zoals Facebook zetten de komende jaren flink in op het gebruik van kunstmatige intelligentie. De techniek belooft tal van verbeteringen voor sociale media.

Op F8, de ontwikkelaarsconferentie van Facebook, werd afgelopen week veel gesproken over de mogelijkheden van kunstmatige intelligentie (AI). De technologie gaat de komende jaren een grote rol spelen binnen het bedrijf. Niet alleen in de reguliere Facebook-app, maar ook binnen andere apps, zoals Instagram en Messenger.

Tijdens de keynote op de tweede dag van het evenement sprak topman Mike Schroepfer over kunstmatige intelligentie als "de beste manier om onze gebruikers op grote schaal te beschermen". Er zijn simpelweg te veel gebruikers op het netwerk en te weinig menselijke werknemers om alles in goede banen te leiden.

Facebook werkt al een tijdje met algoritmes die verboden berichten en nepaccounts opsporen. "Voorheen wachtten we op meldingen van mensen voordat we actie ondernamen", zei Schroepfer. "Nu doen systemen dat voor ons. Elke dag worden miljoenen nepaccounts gewist. In het eerste kwartaal van dit jaar verwijderden we bijna twee miljoen schadelijke berichten, waarvan 99 procent voordat ze in de nieuwsoverzichten van anderen verschenen. Onze aanpak is proactiever geworden."

Oplichting

Niet alleen terroristische content en haatberichten worden op deze manier opgespoord. Facebook gebruikt ook kunstmatige intelligentie om financiële zwendelpraktijken te achterhalen. Eind maart kondigde het bedrijf aan dat machine learning-technieken al ruim een half miljoen frauduleuze accounts wisten te vinden.

"Als onze systemen zien dat een account waarschijnlijk aan oplichting is gelinkt, moet de eigenaar bewijzen daar niets mee te maken te hebben", schreef productmanager Scott Dickens destijds. "Tot die tijd is het account onbruikbaar en niet bereikbaar voor anderen. Lukt het de eigenaar niet om bewijs te leveren, dan verwijderen we het account."

Zelfmoord

Kunstmatige intelligentie hoeft niet alleen te leiden tot het verwijderen van berichten en accounts. Het moet daadwerkelijk mensen helpen. Sinds eind vorig jaar gebruikt Facebook algoritmes die berichten van mensen kunnen herkennen die zelfmoord overwegen. Sindsdien zijn duizend gevallen gesignaleerd, zei Facebook-onderzoeker Umut Özertem tijdens zijn presentatie op F8.

Mensen kunnen al aan de bel trekken als ze denken dat een van hun Facebook-vrienden zelfmoord overweegt. Maar dat moet sneller, vindt Özertem. "Met AI wordt een voorselectie gemaakt van berichten waaruit blijkt dat iemand zichzelf wil beschadigen", zei hij. "Zo kunnen we noodsituaties eerder behandelen dan wanneer alleen mensen ernaar kijken.''

De berichten zijn niet altijd serieus. Gebruikers schrijven bijvoorbeeld: "Ik heb zoveel huiswerk dat ik mezelf iets aan wil doen", terwijl ze dat niet serieus bedoelen. Om de beste afwegingen te maken, analyseert de kunstmatige intelligentie daarom ook de context en interactie van zo'n bericht. Als er veel reacties komen als "Ik ben er voor je" of "Ik kan je helpen", dan is het mogelijk serieus. Facebook biedt in dat soort gevallen adviezen om hulplijnen te bellen of om contact op te nemen met vrienden.

Vertalingen

Het begrijpen van taal en de intentie van gebruikers is een van de grootste uitdagingen van kunstmatige intelligentie. Op Facebook is dat nog moeilijker. "Het taalgebruik van gebruikers is informeel", zei technisch manager Necip Fazil Ayan. "Er wordt veel straattaal gebruikt en mensen maken typfouten."

Mede hierdoor zijn vertalingen op het platform nog niet altijd nauwkeurig. Facebook zei op F8 meermaals mensen van over de hele wereld samen te willen brengen. Dat wil het bedrijf bijvoorbeeld doen door tekstberichten uit het buitenland te vertalen naar de moedertaal van de gebruiker. Daarin is Facebook niet de enige. Andere bedrijven, zoals Twitter en Google, werken daar eveneens aan.

Op dit moment verwerkt Facebook bijna zes miljard vertalingen per dag. Dat aantal is sinds vorig jaar flink gestegen. Toen waren het er dagelijks ongeveer twee miljard.

De techniek helpt ook op andere manieren. "De kunstmatige intelligentie kan lange teksten samenvatten naar het aantal woorden dat je zelf instelt", zei Ayan. "Heb je weinig tijd en wil je op te hoogte zijn, dan is dat een uitkomst."

Verder moet het mensen met dyslexie hulp bieden. "Onderzoek wijst uit dat die gebruikers vaak niet zo actief zijn op sociale media, omdat ze veel fouten maken. Het algoritme van Facebook moet teksten controleren en hulp bieden om de taal zo aan te passen dat het wel klopt."

Beeldherkenning

Techbedrijven werken daarnaast al jaren aan het verbeteren van beeldherkenning op basis van kunstmatige intelligentie. Het gaat bijvoorbeeld om het analyseren van objecten of locaties.

Facebook kwam recent in het nieuws, omdat het profielfoto's van Europese gebruikers weer gaat scannen. Zo kan het bedrijf na het uploaden vanzelf zien welke vrienden er mogelijk nog meer op de foto staan. Daarnaast herkent de dienst op deze manier identiteitsfraude, bijvoorbeeld wanneer een nepaccount een foto van een bestaand persoon gebruikt.

Onbevooroordeelde computers

Isabel Kloumann denkt binnen Facebook na over de ethiek van kunstmatige intelligentie. "We moeten eerlijke en onbevooroordeelde systemen ontwikkelen", zei ze op F8. "Die worden ontwikkeld door mensen. Daarom hebben we een gemengd team nodig van allerlei soorten mensen, zodat de computer een zo divers mogelijke dataset kan gebruiken om te leren."

Dit soort kwesties moeten besproken worden bij Facebook, bijvoorbeeld om te zorgen dat vacatures op het netwerk eerlijk verspreid worden. "Een baan moet niet alleen aan jonge mensen of andere bepaalde groepen worden getoond", zei Kloumann. "Daarom werken we samen met externe experts. Techies hebben niet alle antwoorden, we zijn met z'n allen verantwoordelijk voor de manier waarop kunstmatige intelligentie verder groeit."