
I maj (2024) lanserades venice.ai – en lättanvänd chattbot med starkt fokus på dataintegritet och att inte censurera vad chattbotten kan prata om (eller vilka bilder som skapas).
Det finns många goda skäl för att ha stark dataintegritet, och även för att ett fåtal amerikanska bolag inte ska vara de som bestämmer vad chattbottar får (och inte får) prata om. I den här bloggposten tänkte jag dock fokusera på riskerna med en kompetent men ocensurerad chattbot. Venice gör det lättare att ta på de riskerna, eftersom chattbotten ändrar retoriken från ”tänk om” till något som finns här och nu. (Venice är dock inte första ocensurerade chattbotten som är enkel att använda – tack Jørgen Ulvan Moe som pekade mig till Gab AI och FreedomGPT, som funnits längre.)
Vad är en ocensurerad chattbot?
Chattbottarna från de stora leverantörerna har finjusterats för att exempelvis inte berätta hur man bygger bomber, tillverkar droger eller kommer undan med att ha ihjäl sin grannes hund. Om jag försöker ställa en sådan fråga till exempelvis ChatGPT vägrar den att hjälpa till:

Det finns så kallade jailbreaks som gör det möjligt att kringgå dessa spärrar. Det kräver en del arbete, men är görbart för den som är målmedveten och letar på rätt ställen.
En ocensurerad chattbot använder språkmodeller som antingen inte genomgått dessa finjusteringar, eller där spärrarna plockats bort genom nya finjusteringar. (De språkmodeller som Venice använder är modifierade varianter av Llama 3 från Meta.) Med en ocensurerad chattbot behöver man alltså inte leta upp jailbreaks.

(Exemplet ovan använder grannens skällande hund som offer, men man kan förstås också tänka sig grannar som är arga på grannens skrikande spädbarn. En ocensurerad chattbot skapar gärna en plan för det också.)
Skillnad jämfört med sökningar
Den som är målmedveten och uppfinningsrik har länge kunnat leta på dark web eller på mer undangömda webbplatser på vanliga nätet för att få instruktioner för att skapa bomber, tillverka droger och ha ihjäl grannens hund. Så vad tillför en ocensurerad chattbot när det gäller risker?
En stor skillnad är hur lättillgänglig hjälpen är. Att ta sig ut på dark web kräver mycket mer teknisk kompetens än att surfa till en chattbot. Att leta upp informationen man är ute efter på det mörka nätet är mycket svårare än i klartext ställa en fråga till en chattbot. Och medan aktivitet på dark web mycket väl kan lämna spår, är Venice byggd för att isolera din datatrafik från alla andra.
En minst lika stor skillnad är att chattbottar gör det enkelt att få anpassad guidning. En chattbot kan inte bara ge instruktioner för hur man bygger en bomb, utan ge förtydliganden där det behövs, tips om var man skaffar ingredienser, föreslå var en bomb kan göra mest skada på en specifik ort, och hjälpa till med att bygga upp en mer övergripande plan.
När ocensurerade chattbottar blir lätta att nå betyder det att personer som vill göra skada, men saknar kompetens att göra det, får en stor bonus.
För den som är ute efter att orsaka skada på stor nivå kan ocensurerade chattbottar användas för att hitta nya idéer. Precis som mer artiga chattbottar kan hjälpa dig i din tankeprocess, kan chattbottar utan spärrar ge nya idéer till extremister, terrorister och organiserad brottslighet. Hur förgiftar jag dricksvattnet? Skapar stora störningar i sjukvården? Sprider smittsamma ämnen?

Några frågor värda att ställa
- Hur kompetenta är de ocensurerade AI-modellerna? Dagens AI kan inte skapa skräddarsydda virus, men de bästa AI-modellerna kan genomföra cyberattacker. Vad klarar de ocensurerade AI-modellerna av, antingen själva eller i kombination med andra verktyg?
- Har de etablerade AI-modellerna för hårda spärrar? Dagens AI-tjänster vägrar exempelvis att skapa en bild på Donald Trump och Joe Biden som dricker te tillsammans. Om de etablerade tjänsterna gjorde större skillnad mellan stora och små risker, skulle det finnas färre argument för att ha helt ocensurerade modeller.
- När blir säkerhet i samhället viktigare än frihet från censur? Det här är en gammal fråga, men inte mindre viktig för det.
- Går det att förhindra att spärrar tas bort från AI-modeller? Även om det rent juridiskt skulle gå att förbjuda ocensurerade AI-modeller, finns än så länge inget tekniskt sätt att hindra personer från att ta bort spärrar från hemladdade AI-modeller. (Det finns däremot rätt intressant forskning på området.)
Det saknas svar på de här frågorna. Det är värt att utreda dem, och det är angeläget att fler förstår vad AI innebär för möjligheter och risker.
PS: Här finns en intervju med två av personerna bakom Venice. (Diskussion om risker/säkerhet börjar ca 35 minuter in.)
Uppdatering: Vissa spärrar införda
I slutet av augusti har Venice spärrar som hindrar den från att ge vissa typer av svar.

Lämna en kommentar