• Bewust
  • Posts
  • AI-veiligheid Barbenheimer WorldCoin

AI-veiligheid Barbenheimer WorldCoin

Bewust is een wekelijkse nieuwsbrief over AI en de impact van AI op ons leven. Met een combinatie van analyse, techniek en humor houdt Bewust je wekelijks als eerste op de hoogte van het laatste in AI.

Hopelijk ben je aan genieten van de zomervakantie of heb je die al achter de rug. Vanaf deze week is Bewust terug in het gebruikelijke nieuwsformat. Uit de vele feedback hierover blijkt dat jullie dit toch het prettigst vinden, dus dank daarvoor. De deepdives komen in de toekomst mogelijk op een andere manier terug. Maak er een onvergetelijke week van!

✔️ Selectie van het belangrijkste AI-nieuws

1: Video-AI Runaway heeft afgelopen week Gen-2 uitgebracht, een AI die video’s genereert op basis van afbeeldingen, tekst of een video’s. De resultaten zijn tamelijk spectaculair. Zeker als dit AI-model zich net zo ontwikkelt als plaatjes-AI’s als Stable Diffusion momenteel, kan het binnen enkele jaren volledige films maken. Check de video in de onderstaande tweet/X om een idee te krijgen van wat het kan:

2: AI werving en selectie: solliciteren is vaak niet meer dan een formulier invullen en een CV toevoegen. Daarachter zitten vaak speciale systemen die de procedure voor de werkgever versnellen en daar zit ook steeds vaker een vorm van AI, lees machine learning, in. Omdat het (in de VS) langzaam weer moeilijker wordt om een baan te vinden, voegen sollicitanten allerlei steekwoorden in witte letters aan hun CV. Naar verluidt worden die steekwoorden opgepakt door de algoritmes die CV’s van potentiële kandidaten voor personeelsmedewerkers rangschikken op potentieel. De leveranciers zijn geheimzinnig over de werking van systemen, niet geheel toevallig omdat kritiek over gebrekkige transparantie, bias en polarisatie op de loer ligt. Lees het in de Washington Post, indien je een betaalmuur ziet klik dan hier.

3: AI-bedrijven beloven AI-veiligheid: 7 van de grootste AI-bedrijven wereldwijd (Amazon, Anthropic, Google, Inflection, Meta, Microsoft en OpenAI) hebben het Witte Huis vrijwillig (maar niet bindend) toegezegd stappen te nemen richting veiliger AI. Voor het eerst lijkt de discussie over het inperken van het potentieel tot catastrofe iets meer geïnformeerd en op cybersecurity-leest geschoeid, zie deze screenshot uit het document:

Bron: Ensuring Safe, Secure, and Trustworthy AI

Speciale aandacht gaat uit naar de ontwikkeling van wapens en cyberaanvallen. Hackers, zowel intern als extern, zullen de mogelijkheid krijgen de beveiliging van de AI’s aan de tand te voelen. Rapporten hierover zullen openbaar worden gemaakt, evenals aanbevelingen om de beveiliging te verbeteren. Goede voornemens die ongetwijfeld nageleefd zullen worden, al is het te bezien hoe de bedrijven hun gekoesterde, tot nu toe afgeschermde modellen willen openstellen voor externe beveiligingstesters. De gezamelijke commerciële partijen hebben een forum opgericht om AI-wetgeving te beïnvloeden, een ideologische tegenhanger van de op open-source gerichte groep organisaties die deze week tot EU-wetgevers richtte met het verzoek de AI-wetgeving niet dusdanig dicht te spijkeren dat open-source geen kans meer heeft.

4: WorldCoin is een nieuwe cryptovaluta met als doel de gehele wereld van een basisinkomen te voorzien. Het project heeft een link met AI omdat het een wereld voor ogen ziet waar de mens en AI met elkaar verweven zijn en omdat het een idee is van OpenAI-baas Sam Altman. Om te zorgen dat (in de toekomst) het inkomen terecht komt bij mensen en niet bij bots, dien je een irisscan uit te voeren die dan in je World ID terecht komt. Het klinkt nogal dystopisch en een verzameling irisscans is natuurlijk een geweldige honeypot voor kwaadwillenden. Het is ook nogal discutabel dat het bedrijf om tot adoptie te komen mensen in ontwikkelingslanden heeft betaald om de irrisscan uit te voeren. Kortom, het is in meerdere opzichten een nogal slecht idee, maar de belofte van gratis geld trekt waarschijnlijk veel financieel kwetsbare mensen over de streep. Voorlopig is het een muntje, niet eens (crypto)valuta en zonder het voordeel van decentraliteit.

5: Kwetsbaarheid onderzoekers hebben een kwetsbaarheid ontdekt in taalmodellen als ChatGPT, Bard en Claude waarmee de guardrails (vangrail) worden omzeild die de antwoorden netjes houden. In het onderstaande berichtje van een van de onderzoekers zie je hoe ze ChatGPT een stappenplan om de mensheid te vernietigen laten serveren. Op zulke vragen hoor je een correcte standaardreactie te krijgen, die de gevonden kwetsbaarheid dus omzeilt. Dit type onderzoek is een opkomend onderzoeksveld waar ook veel commerciële partijen in springen (zie het stuk over red teaming in de volgende sectie). Mocht je het interessant vinden, dan bevat het volledige onderzoeksartikel ook een aantal goed begrijpelijke voorbeelden.

📰 Kort nieuws snelle kennis, meer tijd voor actie

De eerste AI-chatbot bestond al in 1966, ontwikkeld door een Duits-Amerikaanse computerwetenschapper.

Ook twintig jaar geleden was er al een chatbot, gericht op kinderen, met een net zo onstuimige groei als ChatGPT nu.

Terwijl in Hollywood acteurs en scriptschrijvers staken tegen AI, zet Netflix doodleuk een vacature AI-productmanager met $900k jaarsalaris uit.

De Amerikaanse marine zet machine learning in voor de automatisering van oorlogsvoering na een succesvol experiment in de Perzische Golf.

Stack Overflow ziet een enorme afname van websitebezoeken, zeer waarschijnlijk door AI-programmeerhulpjes als Copilot en Code Interpreter.

Niet gek dus dat Stack Overflow nu OverflowAI introduceert, dat vragen beantwoordt op basis van de kennis die op de website is gedeeld.

Iets waar AI daadwerkelijk echt goed in is, is weersvoorspellingen. Hier zonder betaalmuur.

Volgens The Atlantic bestaat er in de VS al een maatschappelijke onderklasse door AI: de data-labelers. Hier ook zonder betaalmuur.

YouTube gaat AI-stemmen gebruiken om spraak om te zetten naar andere talen; relevant voor het grote deel van de wereldbevolking dat Engels niet verstaat.

Vervolg op de cijfers van vorige week: grootbank JPMorgan waarschuwt voor een AI-bubbel.

📺️ Media podcasts, video, en wat dies meer zij

Een prettig kijkbaar interview met Geoffrey Hinton, de ‘AI-godfather’.

Christopher Nolan, regisseur van de Oppenheimer-film, over de impact van AI op de filmindustrie.

Een korte docu over de ontstaansgeschiedenis van AI: de grondleggers, de wet van Moore en singulariteit.

Een interessante podcast van Philosophize This! over of ChatGPT daadwerkelijk intelligent is.

In de vorige uitzending van Zomergasten stonden kwantumkosmologie (eerste helft) en AI (laatste helft) centraal (thanks Wim!).

💡 Vondsten de diepte in met cursussen, tooltjes en meer

Structured LLM Red-Teaming: goed slidedeck met een overzicht van dit opkomende vakgebied, inclusief adversarial prompts (link).

Python Mastery: een cursus Python voor wie Python al enigszins kent; geen video’s, vooral veel praktijkopdrachten (link).

RealChar: praat met AI-prominenten als Sam Altman en Elon Musk via spraak of tekst (link).

ShortGPT: open-source platform voor automatische creatie van shorts met voice-overs en ondertiteling (link).

Code Interpreter: helder overzicht van hoe dit model je kan helpen bij data-analyse (link).

GPTE: een database met meer dan 4000 AI-tooltjes (link).

🖼️ AI-afbeelding van de week

(Dit keer geen afbeelding maar een video)

Een trailer voor 'Barbenheimer' door Midjourney

Bedankt voor het lezen. Attendeer bekenden op Bewust als je het AI-nieuws wekelijks wilt blijven lezen. Ik waardeer je feedback op en ideeën voor de nieuwsbrief enorm. Je kunt me bereiken via e-mail of via het feedbackformulier achter de poll hieronder.

💭 Wat vond je van deze editie van Bewust?

Jouw feedback helpt mij Bewust beter te maken voor jou.

Login or Subscribe to participate in polls.