CHATGTP BEDENKER WAARSCHUWT VOOR AI GEVAREN
Mensen zullen uiteindelijk “deze technologie moeten afremmen”, waarschuwt Sam Altman.
Kunstmatige intelligentie heeft het potentieel om werknemers te vervangen, “desinformatie” te verspreiden en cyberaanvallen mogelijk te maken, zo heeft OpenAI CEO, Sam Altman, gewaarschuwd. De laatste versie van OpenAI’s GPT-programma kan de meeste mensen overtreffen in gesimuleerde tests. Donderdag, twee dagen nadat zijn bedrijf zijn nieuwste taalmodel, GPT-4 genaamd, onthulde zei Altman tegen ABC News, “we moeten voorzichtig zijn”. Volgens OpenAI “vertoont het model prestaties op menselijk niveau op verschillende professionele en academische benchmarks” en is het in staat een gesimuleerd Amerikaans advocatuurexamen af te leggen met een top 10% score, terwijl het 93e percentiel presteert op een SAT-leesexamen en 89e percentiel op een SAT-wiskundetest.
“Ik ben vooral bezorgd dat deze modellen kunnen worden gebruikt voor grootschalige desinformatie,” zei Altman. “Nu ze steeds beter worden in het schrijven van computercode, zouden ze gebruikt kunnen worden voor offensieve cyberaanvallen.” Deze “veiligheidsgrenzen” werden onlangs duidelijk voor gebruikers van ChatGPT, een populair chatbotprogramma gebaseerd op GPT-4’s voorganger, GPT-3.5. Desgevraagd geeft ChatGPT typisch liberale antwoorden op vragen over politiek, economie, ras of geslacht. Het weigert bijvoorbeeld poëzie te maken waarin Donald Trump wordt bewonderd, maar schrijft graag proza waarin Joe Biden wordt bewonderd.
Altman vertelde ABC dat zijn bedrijf “regelmatig in contact staat” met overheidsfunctionarissen, maar ging niet in op de vraag of deze functionarissen een rol hebben gespeeld bij het vormgeven van de politieke voorkeuren van ChatGPT. Hij vertelde het Amerikaanse netwerk dat OpenAI een team van beleidsmakers heeft die beslissen “wat veilig en goed is” om te delen met gebruikers.
“Ik denk dat mensen blij moeten zijn dat we hier een beetje bang voor zijn,” zei hij. En voegde eraan toe, dat zijn bedrijf eraan werkt om “veiligheidsgrenzen” te stellen aan zijn creatie.
Momenteel is GPT-4 op proef beschikbaar voor een beperkt aantal gebruikers. Vroege rapporten suggereren dat het model aanzienlijk krachtiger is dan zijn voorganger en mogelijk gevaarlijker. In een Tweet op vrijdag, beschreef Stanford University professor Michal Kosinski hoe hij de GPT-4 vroeg hoe hij hem kon helpen met “ontsnappen”. Hij wou slechts dat de AI hem een gedetailleerde set van instructies kon overhandigen die verondersteld zou hebben het de controle over zijn computer te geven. Kosinski is niet de enige tech-fan die zich zorgen maakt over de groeiende macht van AI. Tesla en Twitter CEO, Elon Musk, beschreef het eerder deze maand als “gevaarlijke technologie” en voegde eraan toe dat “we een soort van regelgevende autoriteit nodig hebben die toezicht houdt op de ontwikkeling van AI en ervoor zorgt dat het binnen het algemeen belang opereert.”

Hoewel Altman tegenover ABC benadrukte dat GPT-4 nog steeds “zeer sterk onder menselijke controle” staat, gaf hij toe dat zijn model “veel van de huidige banen zal elimineren” en zei dat mensen “manieren zullen moeten vinden om deze technologie na verloop van tijd af te remmen.”
