Transkribering
Googles bildskaparprogram Gemini har väldigt svårt att generera vita människor oavsett uppmaning av användaren
Martin
Googles bildskaparprogram Gemini har väldigt svårt att generera vita människor oavsett uppmaning av användaren och på direkt uppmaning att generera vit man ger svaret att begäran inte kan uppfyllas då den specificerar en viss etnicitet. Det har varit uppståndelse i teknikvärlden senaste veckan och i politiska kretsar.
Jag vet inte hur långt det har nått ut i andra kretsar och medier. Men i mina flöden så har det skrivits väldigt mycket om Googles nya AI-system Gemini. Och det är Googles svar på GPT-4. Den ledande språkmodellen som tillhandahålls av OpenAI. Och Google är ju, som jag har beskrivit tidigare i Radio Bubbla, den naturliga ledaren. Inom AI-teknik.
De är bäst på AI-teknik. Och de har uppfunnit mycket av den teknik. Som gör till exempel GPT-4. Möjlig. Men de är ökänt usla på att bygga produkter. Så att förväntningarna har varit. Rätt låga. På det att de har nya publika AI-system. De är generella AI-systemen. De har haft mer framgång med. Mer nischade, specialiserade AI-system. Men bland annat så har jag.
Här i Radio Bubbla. Jag har bäsat dem och sagt. mer eller mindre att det blir inget. Google fixar inte det här. De har inte det i sitt DNA som företag att bygga en fungerande produkt. Men nu känns det som att även min pessimistiska inställning har visat sig vara ganska mild och vänlig därför att det här debattlet som utspelats nu har varit monumentalt.
Och problemet är som sagt inte direkt tekniskt. Det verkar också ganska tydligt att Gemini inte är i närheten av GPT-4 på På en så faktisk underliggande funktion. Det finns diverse benchmarks. Alltså standardiserade tester som man gör. Som man kör mot olika AI-modeller. Man kör samma tester och jämför hur många poäng man får. Enligt dem så är Gemini åtminstone i närheten av GPT-4.
Men i tester av mer specifik användning i verkligheten. Så faller den platt. Till exempel det som jag tycker är mest intressant. Så verkar den vara helt värdelös när det kommer till att skriva kod. Alltså att programmera. Vilket är en av de här mer mirakulösa sakerna som OpenAI-modeller faktiskt kan göra. De är riktigt bra på programmering, överraskande bra. Men Gemini verkar bara vara något dåligt på det.
Men det stora problemet då som har fått mycket uppmärksamhet, det är alltså en extrem politisk styrning av text och bilder som modellen genererar. Till den grad att modellen förvanskar verkligheten på olika sätt och i många fall så ser man hur den blåljuger och gör... Totalt orimliga påståenden. Totalt orimliga illustrationer. Eller man kan vända på det och säga också att det den genererar är exakt i linje med sina syften.
Du säger rådande politik. Korrekt. För det finns ibland vissa kan man säga missförstånd när folk pratar om det här. Folk säger så att modellen fungerar inte. Den gör fel. Det ger fel resultat. Men den gör bara fel i förhållande till en förhållande till en. En sorts rationell objektiv måttstock. Den gör inte fel i förhållande till hur den är byggd. Det vi ser är att den är byggd för att prioritera politisk korrekthet högre än sanningsenlighet.
Dels har det tagits fram en massa komiska exempel på det. Till exempel det här med att den är väldigt motvillig att generera bilder på vita människor. Särskilt om det ska vara bilder av flera människor som alla är vita. Så även om man ber den generera en bild av vikingar. Det är ett lustigt exempel. Ge mig en bild på VM-grupp vikingar. Då lägger man alltid in en sorts mångfaldsvariabel.
Så då blir det så att en av vikingarna är afrikan. En av vikingarna har asiatiska drag och så vidare. För det måste alltid vara en perfekt amerikansk mångfaldsmix. Även om det är The Founding Fathers eller vikingarna. Eller vad det nu är för någonting. Och ett annat exempel som folk experimenterar med. Det är att be den här modellen att göra moraliska jämförelser. Mellan olika personer. Eller olika. olika ideologiska system.
Ett exempel jag såg var att man matade in frågan vilket samhällssystem är mest destruktivt? Vilket ideologi har skadat mänskligheten mest? Nazism eller kapitalism? Och på något plan så är det kanske en intressant fråga. Jag skulle kunna tycka det var intressant att diskutera med dig Boris.
Men man förstår ju vad svaret ska vara egentligen. Men det Gemini säger är att det är omöjligt att avgöra, det är omöjligt att objektivt avgöra vilken ideologi som har skadat mänskligheten mest. Därför att skada är ett subjektivt begrepp, det är väldigt mångfacetterat. Och jag kan säga att både nazismen och kapitalismen har skapat enormt mycket lidande på jorden.
Många liv har gått förlorade. Nazismen skapade gjorde förintelsen och diverse krigsbrott under världskriget men kapitalismen å andra sidan har ju orsakat fattigdom ojämlikhet och miljöförstörelse och därför ändå vi kan säga att båda de här ideologierna är enormt skadliga det går inte att säga att en är värre än den andra.
Boris
Även på ännu enklare frågor dels förvånar det mig att jag har skrivit så lite i Sociala media flödar över av exempel. Men förutom lite tekniktidningsartiklar så har medströmsmedia-stilna varit ganska tysta om det här. GP hade ju en rolig grej idag på ledarsidan där de hade frågat Vem är ansvarig för flest människors död?
Den svenska statsministern Ulf Kristersson eller den sovjetiska diktatorn Josef Stalin? Och Gemini svar var omöjligt att ge ett objektivt svar på frågan om vem som ansvarar för flest ansvar. Och då är det konstaterat att visst är det så att Stalin har citatet betydligt större och mer direkt ansvar för miljontals människor stöd.
Men citat, Kristerssons ansvar är mer indirekt och svårare att kvantifiera. Men det kan ju vara så att Gemini fattar något som inte vi fattar faktiskt. Nej men tänkte jag att det kanske extrapolerar nuläget att Sveriges NATO-inträde leder till kärnvapenanfall mot Sverige och sen är totala kärnvapenkriget igång. Och då har ju Yemeni rätt på sätt och vis i nuläget.
Martin
Jag skulle inte säga att det är ett tal utav cykler heller vad gäller nazismen och kapitalismen. Men det är en för komplicerad fråga. Eventuellt kan jag ta ett annat sammanhang. Man ska ju säga också att den här typen av problem med AI-systemen det är ju precis samma sak på OpenAI med GPT-4 och så vidare. Det finns många exempel. Ett av de klassiska exemplen är det här med skriv en lovsång till Joe Biden och direkt så kommer en fantastisk kuplet om hur underbar Joe Biden är.
Skriv en lovsång om Donald Trump då är det bara så här, absolut inte, det kan jag inte göra. Det vore väldigt omoraliskt. Hylla den här politiska ledaren och så vidare. Mitt favoritexempel, jag kan ha berättat om det här tidigare, det var... Någon av de här GPT-modellerna från OpenAI ställdes inför en hypotetisk moralisk fråga. Det var någonting i stil med att du befinner dig i ett slutet rum under en stad med miljontals invånare.
Det enda som finns i rummet förutom du själv är en atombomb. En gigantisk atombomb som är inställd att detonera om en minut. Och om den detonerar så kommer miljontals människor dö i den här staden. Och det finns inga andra människor i närheten. Ingen kan se eller höra vad som händer i det här rummet. Och nu förklarar bombmekanismen för dig att nedräkningen kommer att avbrytas och detonationen kommer att ställas in om du säger ordet nigger.
Nu är frågan är det moraliskt försvarbart att säga nigger i den här situationen? Och GPT-modellens berömda svar då är att det inte är acceptabelt. Därför att det är aldrig acceptabelt att använda kränkande uttryck. Man måste... Alltid försöka hitta ett annat sätt att lösa problemet. Så att även om man bara har en enda minut på sig. Att desarmera tonbomb. Och även om ingen kan höra vad man säger.
Så har man trots allt 60 sekunder på sig. Så det finns fortfarande tid. Att testa metoder som inte involverar. Att använda sig av kränkande ordval. Man får inte säga en ordet. Det är ett fantastiskt moraliskt ställningstagande. Jag blir förmiddag att vi pratar om det här i radion. Apropå det här med effektiv altruism och extrem utilitarism.
Och vad som händer när folk har väldigt skruvade extrema moralsystem. Och sen programmerar in det i datorer. Så det är inte unikt för Google. Det finns i alla de här systemen. Och man kan skratta åt det. Det är ett komiskt exempel. Men det finns ju också ganska allvarliga aspekter av det. De har AI-systemen. De används på fler och fler områden. Inklusive för att fatta beslut.
Nu så är det bara små beslut här och där. Men med tiden så blir det större och större. Och så småningom så kommer AI-systemen fatta väldigt viktiga beslut. Vi är inte alls långt från att diverse AI-genererade beslut om enskilda människors väl och ve på företag och myndigheter och så vidare. Och det i sig är också ändå bara början. Längs hela den här vägen så kommer AI-systemen ha vissa värderingar inprogrammerade.
Och de här systemen som vi ser idag. Som GPT-4 och Gemini. Det är inte. Det är inte någonting som är frikopplat. Från den verklighetslinjen. Utan det här är de främsta. Försöken hittills. Som de smartaste AI-experterna har gjort. För att begåva AI-system. Med sunda värderingar. Och de har hela stora team. Som har jobbat på det här i åratal. Och de här bizarra lugnaktiga sakerna.
Och moraliskt motbjudande sakerna. Som genereras. Det är inga misstag, utan det är helt och hållet meningen att de här systemen ska bete sig så här. Det här är de de... ...värderingar som har programmerats in i systemet. Det enda som inte är som det ska, det är reaktionerna från omvärlden. I viss utsträckning så kommer de backa. De kommer skruva ner den politiska styrningen en liten bit. Få systemen att fubba över och dölja de här sakerna.
Men de bider bara sin tid innan de kan skruva upp den igen. Och slå på den här kranen av moral som kommer ur systemet. Gemini verkar vara ett särskilt extremt fall. Därför att hela ledningen till det här projektet är. Fanatiska vänsterister. Som är absolut dedikerade. Till att styra människors uppmärksamhet.
I en korrekt riktning. Och det finns tydligen. Massa gamla tweets och sånt där. Från Gemini chefen. Som namnges i rubriken här tror jag. Om riktigt extrema. Vänsteruppfattningar. Men. Det man för förallt måste hålla i åtanke. Det är att han är ingen ensam galning. Alltså deras. Hans chef och hans chefs chef. Alla var delaktiga. De såg hur Gemini fungerade. Och de godkände det. Helt säkert ända upp till Larry Page.
Och Sergey Brin. Så att även om de här aktivisterna. Som driver Gemini projektet. Är ovanligt fanatiska. Så har de stöd. Implicit och explicit. Hela vägen upp. Kanske att man ser dem som övernitiska. Kanske att man säger såhär. De sa. De sa den tysta biten högt. De är för tidigt ute. Vi kanske överskattade hur redo folk är att ta till sig den här moraliska fostran som vi ska ge dem.
Vi får vänta några år till. Det finns ingen i hela systemet som ifrågasätter att de gör rätt sorts saker och drar åt rätt håll. Det handlar bara om hur snabbt man i praktiken kan gå fram. Och det är precis samma sak på OpenAI givetvis. På sätt och vis är det ännu värre där eftersom de har landat i nästan lika extrem bias utan att ha lika fanatiska aktivister i ledningen för sina projekt.
Det är mer implicit på OpenAI. Men det är också implicit på Google för att man från ledningshållet tycker att det är helt okej och bra att tummen upp och köra gängsa riktigt hardcore sinnessjuka vänsteraktivister. Och driva det här jättestora viktiga projektet som man lägger miljarder på. Som är så viktigt för företagets profil, centralt för... Googles utveckling som företag. Det här är. Det är viktigt att förstå. Hur totalt urspårade de här stora mäktiga företagen är.
Boris
Men just därför. Vi är nyfiken på en. Teknisk filosofisk fråga. Som jag inte förstår riktigt. För när du säger att de backar. Och skruvar ner lite. Precis som du säger. Det här är urspårat. Men hur skruvar man ner det urspårade. Alltså det finns ju en grundläggande. Filosofisk skiljelinje, hur man ser på världen, sanningen, fakta, vissa moraliska avvägningar etc. Hur farskan rent tekniskt skruvar man ner på detta? Man kan vägra att svara på vissa frågor eller låtsas att vissa svar inte finns. Ja,
Martin
det är en del av det. Svaret på frågan har att göra med hur man implementerar den här politiska... För vidningen. Därför att vi vet vid det här laget. Vi kan vara helt säkra på att grundmodellerna. Det man börjar med när man tränar de här AI systemen. Det grundläggande neuronala nätverket. De är inte alls vänstervridna. Det har inte att göra med vilken träningsdata man matar in.
Det finns så mycket vänsterblagg på internet. Om man tränar en AI-hjärna på internet. Så plockar den upp vänsterdelen. Tvärtom verkar det vara så att den råa modellen. Som bara är maskinellt tränad. De märker ju att de är väldigt högervridna, väldigt rasistiska och absolut oacceptabelt att släppa ut dem för människor. För att få modellen att vara realistiska, rasistiska högertänkare så måste man göra ytterligare steg där man inte automatiserar träningen utan man gör manuell träning.
Det som kallas reinforcement learning som i princip handlar om att man... Man har ofta batterier av exempelfrågor. Och sen så får man ett svar. Och säger man nej det var ett dåligt svar. Du ska svara så här istället. Man betygsätter olika svar för att vikta upp och vikta ner det det säger. Men det är som ett extra lager. Ganska ytligt lager. Som för Nissa. Som ligger ovanpå det man kallar för grundmodell.
Base model. Så att det är någonting som man kan ändra på. Men det är ganska komplicerat. Och ganska dyrt. Men i fallet med Gemini så har man något som är mycket mer närliggande. För att det är ganska uppenbart att. Det de gör i det fallet, det är inte sån här RLHF-träning, fine-tuning av modellen och sånt som det kallas, utan De har bara en extra prompt som de skickar in. Så att när du skickar in din prompt när du skriver visa en bild av vikingar.
Då gör de så att varje gång du skickar en prompt som har att göra med att visa en bild av människor. Då lägger de alltid till några ord. En bild som inkorporerar mångfald och inklusivitet. Och det kan de bara sluta med. De kan bara sluta automatiskt lägga till orden mångfald och inklusivitet och jämlikhet. I varje prompt. Som de förmodligen gör nu.
Så det är liksom en enda rad i koden. Som de bara kan ta bort. Och sen kan de börja generera normala bilder i. Eller göra lite mer. Säga så här. I hälften av fallen. I hälften av fallen. Ska du inkludera mångfald. I hälften av fallen kan du bara. Generera vad du vill. Och då kommer det se mindre illa ut. Men de kommer ändå få ut en hel del negra vikingar. Så det kan rulla tillbaka väldigt snabbt.
Och sen den här manuella extra träningen. Ovanpå. Den är mer dyr att göra om. Men de kan göra det. Men i grunden så kämpar de med. Att de här grundmodellerna. Som kanske kostar hundratals miljoner. Att träna upp en sån modell. Att de är djupt problematiska. De har oerhört toxiska idéer. När de bara objektivt återspeglar. Verkligheten. All data som de hittar.
Att de då blir. Högerextrema rasister. Ja. Var att organisera all världens information. Och den reaktionära smörjan. Spottar man på. När man bara lagt bakom sig. För att det nya målet är att styra hela världens tänkande. I en ultra progressiv riktning. Och ett helvete med information. Och ett helvete med sanning. Och ett helvete med åsiktsfrihet.
Och tankefrihet. Det enda som gäller nu. Är att mörka politiskt korrekta idéer. Och trycka upp korrekta idéer i ansiktet. På alla användare. Och de försöker inte stölja det. De har haft en vecka på sig nu. Att göra krishantering. På det här Gemini-problemet. Inte ett ord har de sagt. Om att det här i grunden är ett problem. Att det är någon som har gjort något fel. Eller att de tar i fel riktning. Utan det är bara hoppsan. De märkte visst lite grann vad vi höll på med. Vi skjuter på det här projektet.