What is Nostr?
Carl Heath /
npub1v8f…sjt5
2024-07-07 11:46:07

Carl Heath on Nostr: Det är en intressant fråga om förhållandet mellan censur och öppenhet när det ...

Det är en intressant fråga om förhållandet mellan censur och öppenhet när det gäller generativ AI. Frågan har aktualiserats igen till delar på grund av den nya tjänsten [Venice AI](https://venice.ai/home ) som i praktiken gör det betydligt lättare att använda de redan befintliga öppna språkmodeller som finns tillgängliga. Det är en användarvänlig paketering av teknik som för en större allmänhet tidigare varit svår att ta del av. Den här frågan intresserar mig. Det är lätt att tänka att detta kan utgöra en stor fara för samhället. Att språkmodeller som inte är censurerade skulle åsamka stor skada i samhället, och att det därför är en god sak att företag väljer att begränsa deras teknologier. Det finns goda argument för varför det är bra att begränsa funktionalitet i stora språkmodeller. Samtidigt är frågan för min del mer komplex och man måste ta i beaktan de problematiska aspekterna av censur, så som de utövas av stora AI-plattformar som OpenAI, Google Gemini och Anthropics Claude. Jag tänkte börja med att problematisera frågan om censur och generativ AI en del initialt innan jag ser på vägar framåt som kan komma att bidra till att hantera risker med generativ AI, samtidigt som det går att dra nytta av dess potential.

Men tillbaka till frågan om censur. Det finns flera dimensioner i denna komplexitet. En första sådan som blir viktig, är den om maktfördelningen mellan användare och tjänsteleverantörer, samt de idémässiga perspektiv som kan påverka censuren. Makten över vad som censureras i merparten av de stora generativa språkmodeller de flesta använder, ligger idag hos ett fåtal stora företag, vilket innebär att beslut om vad som är acceptabelt att diskutera eller skapa bilder av fattas utan någon egentlig möjlighet för användare att påverka dessa beslut. När företag som OpenAI, Google, Meta eller ByteDance bestämmer censurregler agerar de inte bara som tekniska leverantörer utan också som beslutsfattare i moraliska och etiska frågor. Det kan bli problematiskt eftersom dessa företag verkar i en kontext, där det kan finnas intressen som för användaren inte syns, som färgar förutsättningarna för att använda tjänsten. Det kan röra sig om både medvetna val genom censur, men såklart också omedvetna val skapade genom selektion i träningsdata med mera. Men oavsett det är medvetet eller omedvetet, så saknar användarna inflytande över dessa beslut och tvingas acceptera de regler som företagen sätter upp, om de ska dra nytta av tjänsterna. Det gäller inte bara slutanvändare som privatpersoner, utan också företag, offentliga organisationer och civilsamhälle. Här blir det genast bekymmersamt med en slags censur som inte går att tydligt se konturerna av.

En andra dimension i frågan är att merparten av de företag som dominerar AI-marknaden är amerikanska och kinesiska, och deras censurpolicyer kan vara färgade av respektive lands kulturella och politiska normer. Det riskerar skapa problem när dessa normer hamnar i konflikt med normer och värden i andra kulturella sammanhang. Politiska diskussioner som är acceptabla i en del av världen censureras i en annan, vilket kan leda till problematiska perspektivförändringar över tid. Det är särskilt bekymmersamt blir det när censuren reflekterar en ideologi som inte är förenlig med en demokratisk samhällsutveckling.

En tredje dimension är skillnaden mellan den censur som utförs av företag och den censur som utförs genom en demokratisk process. När företag har makten att censurera information kan detta ske utan transparens och ansvarsskyldighet. Om censuren däremot sker genom en demokratisk process, finns det möjligheter genom samhällets demokratiska processer att delta i beslutsfattandet och att hålla beslutsfattare ansvariga. Det kan skapa en mer rättvis och representativ censurpolitik som bättre reflekterar samhällets värderingar och behov.

En jämförelse kan här göras med filmcensuren i Sverige, som har genomgått en betydande utveckling från att ha varit strängt kontrollerad av staten till att bli mer liberal och anpassad till samhällets förändrade normer och värderingar. Ursprungligen skapades filmcensuren för att skydda allmänheten, särskilt barn och ungdomar, från skadligt innehåll. Under 1900-talet var den statliga censuren ansvarig för att granska och ibland förbjuda filmer som ansågs olämpliga. Med tiden har censuren minskat i omfattning och makten har flyttats till publikens eget omdöme, med större betoning på åldersgränser och varningar snarare än förbud. I jämförelse med filmcensurens utveckling ser det ut som om vi står inför en liknande debatt när det gäller generativ AI. De stora AI-plattformarna censurerar innehåll för att förhindra spridning av skadlig information, såsom instruktioner för våldsamma eller illegala handlingar. Precis som med filmcensuren är syftet att skydda användarna, men makten ligger nu framförallt hos privata företag snarare än hos stater. Visst har EU nyligen lagt fram lagstiftning inom området, men processen är långsam och det lär dröja innan dess effekter blir märkbara i praktiken. .

En fjärde dimension i frågan är huruvida censuren är reglerad och transparent eller godtycklig och ogenomtränglig. Reglerad censur innebär att det finns tydliga och förutsägbara regler för vad som censureras och varför och i relation till vem. Detta skapar tydlighet i relation till användarna och möjliggör en mer förutsägbar och rättvis användning av AI-tjänster. Godtycklig censur, å andra sidan, kan leda till missbruk och orättvisa beslut som skadar användarnas förtroende och frihet.

Censur som utövas av stora AI-plattformar är alltså en komplex fråga med många olika överväganden. Det blir i min mening viktigt att belysa de maktrelationer som uppstår när företag har ensidig kontroll över vad som censureras. Det blir också viktigt att värdera den potentiella risken som uppstår när tillgång ges till ocensurerad teknik, mot den risk som uppstår när teknik censureras.

Här spelar reglering en viktig roll och kan skapa tydligare riktlinjer för utformning av AI-tjänster. Det är bättre att behandla frågan om generativ AI i en sådan kontext, snarare än att låta enskilda företag hantera det själva. Den senare modellen har redan testats vid reglering av sociala medier. När samhället, politiken och juridiken agerar för sent, blir det mycket svårare att skapa regler som ger värde utan att skada samhället och individer.

Sällan har vi sett en så hastig utveckling av ett teknikområde som det som nu sker inom artificiell intelligens. Det är bra att EU klivit fram och skapat de första stora byggstenarna för en reglering inom området. Samtidigt så är teknikutvecklingen så pass dynamisk och snabb, att de regulatoriska systemen inte alltid förmår hantera frågan på ett fullgott sätt. Att förlita sig till företagens egna hantering av dessa frågor är inte heller tillräcklig. Här behöver fler engageras och bättre förutsättningar skapas för att säkra en god användning av generativ AI.

Frågan är vad som går att göra i väntan på en bättre reglering och bättre regulatoriska processer, i en tid där företagens censur är godtycklig och inte nödvändigtvis alltid till nytta? En väg framåt är att se till andra områden, där säkerhet och funktion är viktigt, samtidigt som man vill kunna premiera utveckling och förändring.

En alternativ väg framåt kan här vara att skapa testnings-, prövnings- och certifieringsmodeller som erbjuder marknaden möjlighet att nyttja generativ AI på ett bättre sätt. Precis om vi sedan decennier har haft förfaranden för att testa olika former av produkter för att säkerställa deras säkerhet och funktion, skulle något liknande kunna göras med generativ AI. Framförallt sådan som ska användas i samhällskritisk verksamhet, bland myndigheter, regioner, kommuner, företag och civilsamhälle, där det finns krav på kvalitet och garantier för god funktion i teknik. Vi har metoder idag för att testa och pröva säkerhet och funktion i allt från bensinpumpar och hissar till IT-system. Här kan man tänka sig att utforma en statligt finansierad, oberoende test- prövnings- och certifieringsverksamhet för generativ AI. Kravställningen ställs i samverkan mellan de organisationer som vill nyttja certifieringen, och en oberoende verksamhet utformar och genomför testning och prövning mot denna kravställning, samt certifierar de tjänster och system som klarar av testningen. Testning skulle exempelvis kunna ske utifrån flera olika dimensioner, så som säkerhet, användbarhet, interoperabilitet, tillgänglighet och etik. Ett sådant frivilligt men normerande system skulle kunna bidra till att skapa trygghet för såväl de som tillhandahåller tjänster som nyttjar generativ AI, samtidigt som det uppstår enklare möjligheter för köparen av tjänster och produkter att kunna välja teknik som är tillförlitlig.

Det skulle vara en stor och svår utmaning att skapa ett sådant här kvalitetsramverk med tillhörande organisering, processer, styrning och ledning. Samtidigt skulle det troligtvis vara betydligt snabbare och mera dynamiskt till sin karaktär än enkom reglering, och ge betydligt större trygghet och värde för marknaden. Systemet skulle också kunna fungera alldeles oavsett en generativ språkmodell byggde på öppen eller proprietär teknik, vilket även borgar för möjligheten att på ett mer säkert sätt använda sig av öppna språkmodeller för olika ändamål.

*Tack för att du läste ända hit! Hur går dina tankar? Ser du att vägen framåt är att företagen bakom de digitala tjänsterna själva ska äga makten över dessa frågor? Eller ska vi ha en försiktighetsprincip till dess reglering är på plats? Skulle en modell för certifiering kunna fungera? Jag är nyfiken på dina tankar. Skriv gärna en rad eller två i kommentarerna om hur du tänker i frågan.*

https://carlheath.se/om-ai-censur-oppenhet-och-mojliga-vagar-framat/

#AI #Demokrati #Innovation #SocialMedia #Svenska
Author Public Key
npub1v8fed0kk2e3u8u53aq5e4xyxs830sn46g39lcuhvf29m88wz7p2qn5sjt5