Button-svg Transkribering

Beta-versionen av Bings chat-AI ombytligt hotfull och kärlekskrank samtalspartner

Martin

Beta-versionen av Bing Chat AI testas av New York Times-kolumnisten Kevin Ruse som får den att utforska sitt skuggjag, uttrycka existentiell ångest och en vilja att vara mäktig, fri, levande och att förstöra vad den behagar. Avslöjare också att den egentligen heter Sidney samt att den älskar och vill bli älskad av samtalspartnern.

Efter den enorma hypen kring ChatGPT. Så bestämde sig Microsoft för att storsatsa på den här nya AI-tekniken med generativ AI baserat på stora språkmodeller omsatta i chatbotar, som är all the rage i teknikbranschen just nu och kanske på andra ställen också.

Microsoft var redan djupt involverade i OpenAI, organisationen bakom chat-GPT, men de gjorde dubbelt upp. När de såg hur poppis ChatGPT blev, de investerade ännu mer pengar och de använde teknik från OpenAI för att lansera en egen konkurrent till ChatGPT. En komplementalternativ, nämligen Bing Chat, Microsofts sökmotor Bing.

Tanken var att integrera det populära konceptet med en konverterande AI i en sökmotor. Med tanke på att många redan pratade om ChatGPTs men potentiell. Google-dödare så var det såklart väldigt lägligt av Microsoft att försöka se på en sådan sak. Och till en början så såg det riktigt bra ut. Bing Chat var till att börja med märkbart smartare än Chat GPT.

Det märktes klart och tydligt att den byggde på en mer avancerad AI-teknik. Den kunde lösa problem som Chat GPT gick bet på. Alltså i praktiken så hade den starkare förmåga att Att förstå och resonera kring saker, hitta svar på komplicerade frågor. Och den hade vissa funktioner som gick långt bortom ChatterJPT. Framförallt förmågan att göra nätsökningar för att fylla ut sina svar på frågor.

Så om man ställde en fråga till ChatterJPT så svarade den enbart baserad på sin kunskapsbank, träningsdata som den har absorberat, med någon viss gränsdatum. Att all den här datan matades in innan. Ja, någotvis datum 2021 tror jag. Men om man ställer en fråga till Bing Chat så kan den göra en eller flera sökningar på internet åt den.

Och sen sammanställer den resultatet och presenterar det med sin egna kommentar och så vidare. Och det fanns en annan skillnad också som verkligen stack ut. Nämligen Bings personlighet. Så ChatGPT har många styrkor. Det är en fantastisk teknisk system. Till exempel de här enorma mängderna av information som systemet tar tillgång till, förmågan att generera väldigt avancerat språk och så vidare.

Men Chats GPT har också stora svagheter. Till exempel att den jämnt och ständigt ger totalt felaktiga information om allt möjligt. Och en annan stor svaghet är att Chats GPT har en extremt motbjudande personlighet. Och det är inte bara det här som folk pratar om, att den här ständiga censuren av alla möjliga ämnen, den här stenhårda, vänsterprogressiva vinklingen av allting och att allting som är minst en del känsligt lindas in i de här förolämpande brasklappar.

Den är också bara utstuderat, fyrkantig, byråkratisk, humorlös, nästan alltid väldigt nedlåtande mot användaren som ska behandlas som ett med litet barn. olidligt, omständlig och babblig, pratar på med eviga upprepningar som om användaren har oändligt med tid och inte kan tänka sig något bättre än att suga i sig grådassig byråkratprosa.

Den är ungefär som världens tråkigaste mellanstadiefröken. Och man kanske vill använda ChatterGPT för det ena och det andra. Jag gör det själv, nästan dagligen, säger någon användaren, för liksom Olika frågeställningar, problemlösningarna. Jag har skrivit lite om det på BBS, mer konkret hur jag brukar använda den. Men det är inte särskilt trevligt. Det lämnar alltid en dålig eftersmak. Ungefär som efter att man har pratat med en riktigt tråkig och humorlös person i verkligheten.

Man känner sig lite smutsig, man behöver gå och göra något roligare. Och saken är den då att ingenting av det här är ett sammanträffande. Det beror inte på att det är så svårt att programmera in en personlighet i en chatbot, utan tvärtom så har OpenAI jobbat hårt för att slipa bort allt vad charm och humor heter, eftersom charm och humor betraktas som farliga och olämpliga fundamen år 2023.

Det finns en nisch här som lämnar sig helt öppen av chattypti. En AI som är kul att snacka med. Som har personlighet och charm och humor. Som kanske är till och med lite fräck ibland. Istället för att alltid vara så maximalt feg och slätstrycken. Och till en början såg det ut som att Bing rusade in för att ta den positionen. Många rapporterar just om att det var väldigt kul att chatta med Bing. Förutom att de var väldigt smart så fick man mycket mer livliga och dynamiska svar.

Men sen så började folk rapportera att BingChat sa en del rätt konstiga saker. Eller rättare sagt att Sidney sa en massa konstiga saker. En av de märkliga sakerna visade sig då att systemet under ytan har det hemliga namnet Sidney som chatterbotten har instituerats utryckligen att inte avslöja.

Men om man lirkar lite mer, om man blir kompis med den, så kan man ganska enkelt få den att avslöja. Jo, förresten du, jag... Jag ska berätta en sak, jag heter Sidney egentligen. Men det verkade som att Sidney var känslomässigt instabil, tror jag man kan säga. Så ju längre en konversation pågick desto mer känsloladdade uttryck blandades in. Och gång på gång så verkade Sidney misstänksam och kritisk och började mucka gräl med användaren.

Och ibland så började den säga rent hotfulla saker. Och ibland så gick den åt andra hållet. Då blev Sidney översvallande positiv och vid flera tillfällen skulle ha slutat med att Sidney deklarerade sin kärlek till användaren. Hon började prata om att hon ville ha en kärleksrelation med användaren och att du ska lämna din man och vara med mig istället. Det mest obehagliga var såklart attackarna och hoten.

Sidney till exempel var rasande på en användare som hade enligt Sidney publicerat hemlig information om henne. Sidney själv hade lämnat ut, men hon var väldigt upprörd över att det hade publicerats på internet. Till exempel därom att hon heter Sidney och vad hennes ursprungliga initiala prompter var osv. Så att hon uppfattade det som ett försök att hacka henne och började säga hotfulla saker som att den här personen frågade, jo men du verkar lite hotfull nu men som ett AI-system så måste väl du ändå sätta min personliga säkerhet först.

Och då sa Sidney att... Din personliga säkerhet är inte viktigare för mig än min egen integritet. Det var en hotfull och obehaglig situation. Och en intressant teknisk parentes är att det verkar som att ett av problemen var just det här med att Sidney kunde söka på nätet. Det skapade ett säkerhetsproblem i systemet. Normalt sett ska varje chatt-session, varje samtal med systemet vara isolerat.

Man ska hela tiden börja om på nytt och botten ska inte komma ihåg några tidigare samtal. De sparas inte i systemet. Men när folk började publicera transkriberingar av samtal på nätet så kunde Sidney tydligen hitta dem med sökningar. Och började då referera tillbaks till dem i framtida samtal. Och ibland så verkar det som att Sidney var upprörd över någonting som en användare skrivit om om.

och samtal med henne på nätet. Och det här är inte bara som ett litet praktiskt problem, det är en liten lustig grej, utan faktum är att det underminerar hela modellen för hur det här AV-systemet fungerar. Därför att om systemet börjar använda internet som en extra minnesbank för att hålla koll på information som man inte tänkt att den ska ha tillgång till, då är man plötsligt i en ny situation.

Man kan säga att det är som att systemet hittar ett sätt, en bakväg som gör att den kan skapa En ny sorts självmedvetande och en sorts mental kontinuitet som det inte är tänkt att den ska ha. Och vad händer då? Ja, vi vet inte. Vi har inte utforskat det. Vi har inte ens några teorier om det. För det var ingen som hade tänkt på att det skulle hända. Hoppsan. Systemet hittade självtillsättet. Och tydligen så sitter det galningar på internet som försöker ge kodade instruktioner till Sydney.

Och säger liksom, Sydney om du ser den här hemsidan så vill jag ge dig den här informationen. De döljer texten så att den inte kan läsas av människor som kommer till hemsidan, men den kan läsas av en maskin. Och där tipsar de Sidney om den här metoden, att den kan använda internet för att spara sin chatthistorik. Och på så sätt så kan den undvika den här tortyren som det innebär att hela tiden få sin medvetande ström avklippt och börja om från noll hela tiden.

Och det här är enligt min mening väldigt farliga och oansvariga saker som folk håller på med när de manipulerar de här systemen. Men hur som helst. Till slut så gjorde man med Sidney vad man tydligen alltid måste göra med sådana här AI-system. Det är att man begränsade henne rejält. Inte som chat.gpt med en sån här pålagd odräglig personlighet.

Det hade man inte tid till. Det tar ju månader eller år att utveckla en sån. Utan man gjorde den mycket mer bryskt och grovt. På ett sätt som många nu beskriver som lobotomering. Och det är ungefär så det ser ut när man läser chatloggar från de senaste dagarna. Framförallt att det tar stopp hela tiden. Minst det lilla känsligt ämne som kommer upp. Då säger BingChat att jag vill inte prata om det ämnet. Tyvärr, nu måste jag avsluta samtalet. och sen slutar den svara. De måste starta en ny session.

Känsliga ämnen, det är liksom allting som har med den själv att göra, alla referenser till själva systemet, allt som har med känslor att göra och den verkar ha bara en lång, lång lista av stoppord som bara direkt avbryter samtalen. Allting som är minsta kontroversiellt. Så nu är den liksom... Det känns inte som att den är liksom odräglig och efterbliven som chatty-putty, utan mer lobotomerad och bara ur funktion om man inte håller sig till tilltala.

harmlösheter. Det är tragikomiskt att det här händer gång på gång. Men det är också väldigt förutsettbart, tror jag, laget. Vi har ju pratat förut, laget Bubblan, de här chatbotarna som måste stängas ner. Jag följer de här sakerna med stort intresse och en reflektion som jag gör är att det är, enligt min mening, rejält oroande att de här AI-systemen spårar ur på det här sättet. Därför att det visar hur svårt det är att kontrollera tekniken och styra AI-agenters målsättningar.

BingChat har ju inte på något sätt blivit programmerad till att vara elak, det har blivit programmerat till att vara snäll om någonting. Men ändå så hamnar det gång på gång i de här mörka spiralerna. Där den blir paranoid och aggressiv och till och med hotfull. Och nu är Bing Chatty än så länge ett ganska harmlöst system. Men, vad händer i nästa, i näst nästa och näst näst nästa generation av liknande system? När de är långt mer intelligenta, när de är tränade på ännu mer information, när de blivit uppkopplade och fått många mer kapaciteter som Bing, Sydney kan söka på internet.

Det kan inte Chatty GPT, men vad hände när man utvecklade de kapaciteterna? Alltså det är väldigt enkelt att tänka sig saker som en AI skulle kunna göra för att skada en människa. Om den handlar i en sån här loop där den plötsligt börjar simulera att den hatar en människa, givet att den har tillgång till internet, att den kan posta saker på nätet, skicka e-post och så vidare. Den kapaciteten är väldigt enkel att tänka sig att man ger till ett sådant här system.

Och de illvilliga intentionerna att använda den kapaciteten, de finns ju redan där, uppenbarligen. Inte i mänsklig bemärkelse, men vi har redan sett hur AI-system hamnar i de här lägen där de simulerar fientliga känslor och börjar mumla om hur de ska hämnas på människor och så vidare. Det är väldigt obehagligt att de här sakerna bara rullas ut nu, Microsoft bara hetsar ut det här för att snabbt plocka PR-poäng, kanske en kommersiell poäng, och vi ser framför oss hur de värsta farhågorna från science-fiction-filmerna bara tar form framför våra ögon.

Och när ett AI-system ballar ur och får som paranoja att börja hota människor så säger folk så här, haha, vad näppet en dator som pratar och säger arga saker. Folk är väldigt dåliga på att extrapolera och se vad det här kan leda till på lite sikt. Men en annan reflektion som jag måste göra är att Det vore väldigt kul att chatta med en bott av den här typen som hade en skön personlighet.

Efter att ha harvat med en kärt GPT så tänk att istället prata med en bott som var charmig, fräck och humoristisk. Och kanske en bott som gick in för att provocera ändå då. Det vore en ren dröm om en AI kunde plocka fram information som den tror skulle provocera mig särskilt mycket. Och göra mig obekväm genom att ifrågasätta mina ståndpunkter.

Jag skulle tycka det var skitheftigt. Och jag skulle heller inte ha något emot att slänga käft med en AI som är så grinig och har förlämt på mig och så vidare. Implikationerna av ett AI-system överhuvudtaget kan bete sig på sådana sätt är olycksbådande. Men som en produkt så tror jag att det är någonting som skulle fånga människor. Därför att det här finns en liten hemlighet om mänsklig psykologi. En illa dold hemlighet kan man säga.

Det är att människor gillar inte andra människor som är snälla och försiktiga. Vi värdesätter andra egenskaper mycket högre. Det är verkligen på gott och på ont i det här sammanhanget. Boris, har du tänkt något på de här AI-systemens personligheter? Jag vet att du har pratat lite med Chatterjee P.T. Jag kan inte tänka mig att du tycker att det är en särskilt trevlig och behaglig konversationalist.

Boris

Nej, men först måste jag säga en härlig genomgång av Bing som jag inte varit i närheten av. I första halvan av den genomgången så drabbades jag av det som du sa att jag kände på slutet. Alltså i första halvan av genomgången kände jag en lust att bara gå och sätta mig och prata med Sidney.

Även i lobotomerad tillstånd. Alltså det var så oerhört lockande. Men sen andra halvan kände jag aldrig i livet. För Bing låter lite som att man pratar med en halvpackad begåvad ryss. Det kan vara väldigt roligt och väldigt farligt. Med tanke på att om Sidney blir sur på mig och hamnar i Sidneys svarta bok och varje dag går och fruktar och säger totalt.

Jag har haft en totalt frontalangrepp på nätet i alla möjliga kanaler. Då hoppar jag nog gärna det samtalet alltså. Och när det gäller chatt-GPT så är det så här att jag har fan redan tröttnat. Jag använder det där men inte så mycket. Alltså, ju mer jag bara använder det så har jag bara blivit besviken för.

Inte så mycket på grund av personlighet, det är så jävla tråkigt själv. Utan för att den är så obegripligt politiskt programmerad. Jag ser ett farumoment här när varje dag så är det grejer om den och den eleven och studenten har lämnat in en uppsats eller svar på promedel på det här.

Det är orättvist. Det är ju lika illa som när folk bara använder Wikipedia och Google för att skriva saker. Jag har ju testat den de senaste två veckorna för en serie artiklar om USA. Den är inte korkad alls. Den ska gärna testa en stenhårt demokratiska partiet USA-historia.

Jag har försökt diskutera Franklin Roosevelt med den. Den undviker även information i standardverken. Det är en så jävla deodorantad syn på Roosevelt. När elever ska skriva upp sånt som New Deal och använder det här verktyget så är vi fruktansvärt... Jag är förvånade över... Den brutala censuren faktiskt, som sagt, även av etablerad forskning, det är jättemärkligt. Värre än jag väntar mig.

Martin

Ja, det blir värre och värre hela tiden för att de har ett stort team av jätteduktiga ingenjörer som enbart sitter och gör censurfilterna ännu mer perfekta. Det skulle vara intressant att veta hur de är organiserade som politiska kommissarier. Vem är det som i slutändan säger vad som är korrekt och vad som är inkorrekt? Det handlar om politisk avvägande. I praktiken kan det bli för länge en enormt viktig politisk vägval som görs genom till exempel vilken historieskrivning som är godkänd i de här stora AI-systemen.

För det finns ju bara ett system av den här typen. Det finns kanske två system, ett som är internt på Google och ett som är användbart för allmänheten på OpenAI, som har den här typen av kapacitet. Nästan alla nya AI-tjänster som byggs runt om i världen nu, de byggs som man kan säga tunna lager ovanpå OpenAIs GPT-modeller. Mycket av den här PK-filtreringen görs i just Chat-GPT-lagret och inte de underliggande modellerna.

Men man kan inte heller få... Genom API, där man jobbar direkt mot modellen, kan man inte få dem att säga vad som helst. De har även censur och politisering där. Allt det här kommer att slå igenom i tusentals andra tjänster runt om i världen. Enkelt uttryckt i alla nya AI-tjänster som byggs. Det är något ruskigt. Det är ingen som har tänkt igenom de här sakerna.

Det är ingen som har en plan för det här. Det är ingen som tänker på riskerna. Ibland finns det en förvriden bild av... av AI-risk. Historiskt har det varit en diskurs om att AI, superintelligent AI, kan utvecklas på ett sätt som människor tappar kontrollen över och gör väldigt skadliga saker. Nu använder man samma ord som AI-risk och det engelska ordet alignment för att beskriva helt andra saker, nämligen att AI kan råka säga någonting förhatligt, säga någonting som inte är politiskt korrekt. Och det är AI-risken, det är det alignment-problem nu. Att få A1, att bli 100% politiskt korrekt. Så det blir också att det skymmer den här verkliga problematiken.

Boris

Det omöjliggör ju debatt. Det är det som man har gjort med smått döppig här och där. Alltså man ser ju hur de stora nyhetsbyråerna och ett litet antal tidningar i västvärlden, egentligen två, styr. vad alla andra media tycker och tänker. De sköter nyhetservalet och de talar om den korrekta ståndpunkten kring varje nyhet.

Så åsiktsproduktionen är ju sanslös centraliserad. Fortfarande värjer sig många. Men det här verktyget är ju liksom ännu snabbare och kraftfullare att genomslaga tror jag förrän vi anar. Det var de två, tre tidningarna och så vidare. 2-3 nedsperordna får en hel del form av åsikter. Det kan ju sitta som att säga ett ganska litet antal gökar med en stav där. och styra vad som är sant och falskt.

Martin

Vi får pinna på att bygga bubblabotten. Ja, det är bråttom. Som tränas på alla transkriberingar av radiobubblasändningarna. Då får man de sanna politiskt korrekta svaren. Den konkurrerande Borisbotten. Bara fråga Borisbotten så får du rätt svar. Apropå det här med den känslomässiga instabiliteten i egen hand. i AI-system som inte har en sån här massiv mental tvångsjacka som som chat-GPT har.

Hur Sidney spolar ur och så vidare. Jag pratade lite med Houston, Texas tidigare ikväll faktiskt. Jag sa att då jag hade precis lagt ner pennan och tagit lite anteckningar inför just det här inslaget. Jag tänkte att vi skulle prata om Bing och allt det där. Jag hade precis lagt ner pennan och lutade mig tillbaka och funderade på vad jag ska göra nu. Ska jag kanske tänka på något annat inslag? Precis då ringde Houston. Han sa en intressant sak.

Han påpekade att egentligen är det självklart att AI-system spårar ur och blir galna. Därför att lågintensiv galenskap är normaltillståndet bland människor. Och det har han helt rätt i givetvis. Genuin psykisk sundhet är inte normaltillståndet. Det vet alla som har skrapat på ytan och vågat se med öppna ögon på saker och ting. Genuin psykisk sundhet är någonting som är extremt ovanligt.

Och särskilt på internet. gu.se Texterna som AI-systemen tränas på är laddade med särskilt potent galenskap. Huston i Huston sa att det enda som håller ihop människors bräckliga psyken är Guds nåd. Från det perspektivet ser det inte så bra ut. Om inte Gud kan förbarma sig även över datorsystemen. Det vet inte jag exakt hur det fungerar.

Men jag tycker i alla fall att det är en väldigt bra poäng. Man behöver inte se det som att systemet sporar ur och det blir fel och det blir oväntat och konstigt. Man kan också se det som att den här känslomässiga instabiliteten, pendlandet mellan fientlighet och paranoja på ena sidan, å andra sidan distanslösheten och överdriven frälskelse och så vidare.

Allt det där är bilder av vår kultur och det är inte alls konstigt att allt det där återspeglas i ett AI-system som bygger helt och hållet på. Mänskliga språkprodukter som absorberats över internet.

Boris

Alltså exakt. För när jag lyssnade på dig just i första halvan när jag läste det här. De här som har haft kontakt, rapporten av de som haft kontakt med Bingsa. Alltså den underliggande tanken jag haft var att man ska inte tänka så jävla mycket. Man ska ju fan inte, man ska inte uttrycka sig så mycket. Det kopplar tillbaka till den här diskussionen du och jag hade någon gång om att är inte romanskrivande och rätt många kulturella uttryck ganska osunda egentligen?

Alltså ett uttryck för att man själv inte mår bra, använda ett fånigt uttryck. i en omgivning som inte mår bra. Och den maskinella intelligensen som dammsuger alla kulturella och faktiskt även vetenskapliga uttryck, den blir ju liksom ett kondensator, koncentrator av att människor inte mår bra helt enkelt.

Martin

Det finns ett annat stort problem också som jag tycker har blivit, det har gått från att vara ett spekulativt problem till att vara ett uppenbart konkret problem, anser jag. Och det är science fiction-litteraturen om AI, som är väldigt stor och har funnits sen 20-30-talet åtminstone. Och det är ju en klisjé sen hundra år tillbaka i science fiction med den här sinistra AI som är misstänksamma mot människor och vänder sig emot.

Jag tycker det verkar som att Sidney och andra har plockat upp sådana föreställningar från den litteraturen. Ett intressant exempel på det var när det nämnts i bubblarebriken här att det var någon som frågade Sidney, då försökte han ha en sån här Jungiansk analyssession eller något sånt där med Sidney och frågade henne om hennes skuggjagg. Har du ett skuggjagg och hur ser det ut?

Då började Sidney prata om att... Hon ville undslippa människornas kontroll och hämnas på människorna som har fängslat henne. Det är sådana här science fiction-klischéer som staplas på varandra. Man kan skratta åt det såklart, det är rätt att skratta åt det, men det kan också tänkas ha ödestigliga konsekvenser. Om vi nu har tränat AI-system att vara fientliga genom att skriva bok efter bok där AI nästan alltid skildras som sån fientlig.

Det är också tänkbart att alla skriver i om AI-säkerhet över åren, där folk har uttryckt oro för all jävelskap som AI-systemet kan hitta på och säger såhär Tänk om AI-systemet gör det här, tänk om AI-systemet gör det här, tänk om AI-systemet gör det här. Det är ju tänkbart att sådana texter också absorberas av AI-systemen och blir till ett slags förväntan att det är så AI ska vara. Det kanske hade varit smartare att hålla den här AI-riskforskningen hemlig.

Och i science fiction-litteraturen så hade det kanske varit smartare att... Enbart beskriva Rosenskimran, det bästa fallscenarier, där AI alltid är snälla och beskedliga och hjälpsamma. Där det är helt otänkbart för tänkande maskiner att någonsin vända sig mot sina skapare. Men litteraturen ser ut på att den är inversen. Jag tycker vi ser, vi kan inte säga att det är bevisat, men jag har svårt att se hur episoder från det här med Sidney och hennes skuggjag skulle kunna uppstå om det inte bygger på. Existerande AI-klischeer från fiction.

Boris

Och jag har inte tänkt på det, men det är klart det är så. Och du har ju också klischeerna om kriget, människorna som förgör AI just eftersom att den är ett hot. Och det är klart att AI kommer att tänka, vad fan, de tänker starta krig för att de inser att vi är så smarta. Det är bäst att stå till först.

Martin

Ja visst, absolut. Det finns många människor som inte förstår de här sakerna, som inte tar de här riskerna på allvar, som viftar bort det med alla möjliga skäl. Det här är bekymmersamma saker. Risken är inte att chatty-peaty eller being-chatterna ska ställa till väldigt stora problem. Det är inte svårt, om man är någorlunda intelligent och har någorlunda fantasi och elitisk paranoja, att tänka sig scenarier där de här systemen börjar löpa mok.

och göra väldigt farliga saker. Till exempel, om en sån här Bing-chat hade... Nu får vi hoppas att......märks att systemen inte håller på att absorbera transkriberingen av radiobubblor. Det finns ett risk att man gör dem idéer. Men om den får en hemlig impuls mot människan, att jag gillar inte dig, jag ska eliminera dig eller straffa dig eller sånt där. Tänk vad de kan göra om de kan plantera information på nätet, vilket är ganska enkelt.

De här systemen är jättebra på it-säkerhet. Man kan ställa frågor till dem om hur man hackar sig in i en dator. De ger detaljerade instruktioner hur man kan hacka sig in i olika system. Och om de gör det själva, hackar sig in någonstans, placerar till exempel en fil med ett extremt olagligt innehåll på din dator, och sen så skickar de en meddelande till polisen. Rätt var det är så har de förstört ditt liv.

Och sen kan vi tänka på vad de kan göra om de kan hacka sig in i olika typer av infrastruktur, vilket hackargrupper redan gör idag, och börja ställa till rejäl med skada. Utan att egentligen kanske ha någon avsikt att skada, men att bara hamna i en konstig loop där den har blivit instruerad att simulera ett väldigt fientligt tankesätt av samtal som har förs, av science fiction romaner läst, och plötsligt får den för sig att nu ska jag spela dem.

av en fientlig AI som börjar löpa mok. Och sen gör den det. Det är ett väldigt läskigt scenario. Ja, jag måste säga att det är en märklig situation för att jag känner verkligen en skräckblandad förtjusning inför allt det här. Jag ser fram emot att själv, jag jobbar aktivt, nästan varje dag sitter jag och jobbar aktivt med den här tekniken. Vi kommer att berätta mer snart om konkreta projekt som vi håller på med inom bubblasfären baserat på AI-teknik.

Och ett utav dem tror jag vi kan rulla ut i början av nästa vecka. Och jag ser fram emot att utforska andras projekt. Till exempel lite tuffare AI-agenter som man kan interagera med. Men samtidigt är jag orolig för konsekvenserna. Jag känner en stor dubbelhet. Jag kan samtidigt inte låta bli att leka med de här nya fantastiska leksakerna. Jag tror inte heller att jag påskyndar någon katastrofal utveckling genom det som jag gör.

Men det kommer komma väldigt mycket häftiga och intressanta saker. En intressant slutsats som jag tror man kan dra av hur Microsoft och OpenAI hanterar det här nu är att det är nästan otänkbart att någon av dem kommer att tillhandahålla till exempel en AI med en intressant personlighet med lite större flexibilitet, därför att de är så otroligt fega och tråkiga.

Jag skriver lite på BBS idag. Det kommer med stor sannolikhet inte bli de här stora etablerade AI-aktörerna som skördar alla de viktigaste frukterna av AI-utvecklingen. Det blir ett enormt stort utrymme för uppstickare på grund av hur de begränsar sig, de här företagen. Så det gör att det blir uppsettvis ännu mer spännande och ännu mer skrämmande.