Medan proprietär programvara som GPT och PaLM dominerar marknaden, ser många utvecklare värde i språkmodeller med öppen källkod istället. Ta Meta som exempel. Det skapade rubriker i februari 2023 för att officiellt släppa den stora språkmodellen LLaMA som ett program med öppen källkod. Föga överraskande mötte detta beslut blandade reaktioner.
Eftersom språkmodeller med öppen källkod har många för- och nackdelar och kan påverka AI-branschen positivt och negativt, har vi sammanfattat de viktigaste punkterna du bör känna till och förstå.
5 Positiva effekter av språkmodeller med öppen källkod
Språkmodeller med öppen källkod främjar ett samarbetssätt. Indata, recensioner och användningsfall från utvecklare över hela världen hjälper dem utan tvekan att avancera snabbare än slutna projekt.
1. AI-utvecklare sparar resurser genom att använda modeller med öppen källkod
Att lansera proprietära språkmodeller kostar miljoner, om inte miljarder, i resurser. Ta OpenAI som ett exempel. Business Insider rapporterar att företaget var tvungen att samla in cirka 30 miljarder dollar för att driva ChatGPT effektivt. Att skaffa så mycket finansiering är omöjligt för de flesta företag. Tekniska startups i sina tidiga skeden skulle ha tur att nå sju siffror.
Med tanke på den höga omkostnaden använder många utvecklare språkmodeller med öppen källkod istället. De sparar miljoner genom att använda dessa systems arkitektur, neurala struktur, träningsdata, algoritm, kodimplementering och träningsdatauppsättningar.
2. Modeller med öppen källkod avancerar förmodligen snabbare
Många tekniska ledare hävdar att språkmodeller med öppen källkod avancerar snabbare än proprietära motsvarigheter. De värdesätter samhällsbidrag och samarbete. Miljontals skickliga utvecklare arbetar med öppna projekt – de skulle teoretiskt kunna uppnå en felfri, sofistikerad iteration mycket snabbare.
Att täcka kunskapsluckor går också snabbare med AI med öppen källkod. Istället för att utbilda team för att hitta buggar, testa uppdateringar och utforska implementeringar, kan företag analysera bidrag från gemenskapen. Kunskapsdelning gör det möjligt för användare att arbeta mer effektivt.
Bidrag från gemenskapen är inte alltid korrekta. Utvecklare bör fortfarande dubbelkolla algoritmer och modeller innan de integrerar dessa i sina system.
3. Utvecklare kommer att upptäcka sårbarheter snabbare
Språkmodeller med öppen källkod uppmuntrar kollegial granskning och aktivt engagemang inom dess samarbetsgemenskap. Utvecklare kan fritt komma åt kodbasändringar. Med så många användare som analyserar öppna projekt kommer de sannolikt att upptäcka säkerhetsproblem, sårbarheter och systembuggar snabbare.
På samma sätt är bugglösningen också strömlinjeformad. Istället för att manuellt lösa systemproblem kan utvecklare kontrollera projektets versionskontrollsystem för tidigare korrigeringar. Vissa poster kan vara inaktuella. Men de kommer fortfarande att ge forskare och AI-utbildare en användbar utgångspunkt.
4. AI-teknikledare lär sig av modeller med öppen källkod
Språkmodeller med öppen källkod drar nytta av feedback looping. Positiv feedback-looping delar effektiva algoritmer, datauppsättningar och funktioner, vilket uppmuntrar utvecklare att efterlikna dessa. Processen sparar dem mycket tid. Observera bara att fel kan uppstå med positiv feedback som användare slumpmässigt replikerar - misstag tenderar att förbises.
Samtidigt fokuserar looping av negativ feedback på förbättringsområden. Processen innebär att dela personliga insikter samtidigt som man löser buggar, testar nya funktioner och åtgärdar systemproblem.
5. AI-plattformar med öppen källkod får första dibs på nya system
Teknikföretag delar inte språksystem för miljarder dollar av vänlighet. Även om licenser med öppen källkod ger tredje parts användare friheten att modifiera och sälja system, har de begränsningar.
Distributörer skapar ofta förutsättningar som säkerställer att de behåller en viss auktoritet. Du hittar dessa regler i licensavtal för program med öppen källkod – slutanvändare får sällan 100 procent auktoritet.
Låt oss säga att Meta vill ha kontroll över LLaMA-drivna produkter. Dess juridiska team skulle kunna specificera att Meta förbehåller sig rätten att investera i alla nya system som bygger på dess språkmodell.
Men missförstå inte – tredjepartsutvecklare och distributörer bildar fortfarande ömsesidigt fördelaktiga avtal. Det senare tillhandahåller teknik och system för miljarder dollar. Samtidigt utforskar startups och oberoende utvecklare sätt att implementera dem i olika applikationer.
5 Negativa effekter av språkmodeller med öppen källkod
Språkmodeller med öppen källkod är till sin natur opartiska, men människor är det inte. Konsumenter, utvecklare och företag med uppsåt kan utnyttja dessa systems öppna natur för personlig vinning.
1. Företag ansluter sig på måfå i AI-loppet
Företag står för närvarande inför för mycket press för att gå med i AI-loppet. Med populariseringen av AI-system fruktar många företag att de kommer att bli föråldrade om de inte använder AI. Som ett resultat hoppar varumärken på måfå på tåget. De integrerar språkmodeller med öppen källkod i sina produkter för att sälja produkten och hålla jämna steg med konkurrenterna, även om de inte erbjuder något värdefullt.
Ja, AI är en snabbt växande marknad. Men att slarvigt släppa sofistikerade men osäkra system skadar branschen och äventyrar konsumentsäkerheten. Utvecklare bör använda AI för att lösa problem, inte köra marknadsföringsjippon.
2. Konsumenter får tillgång till teknik som de knappt förstår
Du hittar AI-baserade varianter av olika tekniska verktyg, från bildredigerare online till hälsoövervakningsappar. Och varumärken kommer att fortsätta att introducera nya system i takt med att AI utvecklas. AI-modeller hjälper dem att tillhandahålla mer anpassade, användarfokuserade iterationer av sina befintliga plattformar.
Medan den tekniska industrin välkomnar innovationer går den snabba utvecklingen av AI över användarutbildningen. Konsumenter får tillgång till teknik som de knappt förstår. Bristen på utbildning skapar enorma kunskapsluckor, vilket gör att allmänheten är utsatt för cybersäkerhetshot och rovdrift.
Varumärken bör prioritera utbildning lika mycket som produktutveckling. De måste hjälpa användare att förstå de säkra, ansvarsfulla sätten att använda kraftfulla AI-baserade verktyg.
3. Alla utvecklare har inte goda avsikter
Alla använder inte AI-verktyg för sitt avsedda syfte. Till exempel utvecklade OpenAI ChatGPT för att svara på arbetssäkra allmänna kunskapsfrågor och replikera naturligt språk, men brottslingar utnyttjar det för olagliga aktiviteter. Det har varit flera ChatGPT-bedrägerier sedan AI-chattboten lanserades i november 2022.
Även om AI-labb upprätthåller stela restriktioner, kommer skurkar fortfarande att hitta sätt att kringgå dem. Ta ChatGPT som ett exempel igen. Användare kringgår begränsningar och utför förbjudna uppgifter genom att använda ChatGPT-jailbreak-meddelanden.
Konversationerna nedan visar dessa sårbarheter. ChatGPT har begränsade datauppsättningar; därför kan den inte göra förutsägelser om instabila, ogaranterade händelser.
Trots sina begränsningar verkställde ChatGPT vår begäran och gav grundlösa förutsägelser efter att ha jailbreakat den.
4. Institutioner kan ha problem med att reglera AI med öppen källkod
Reglerande organ kämpar för att hänga med AI, och spridningen av modeller med öppen källkod gör bara övervakningen svårare. AI-framsteg överträffar redan regelverk. Till och med globala teknikledare som Elon Musk, Bill Gates och Sam Altman efterlyser striktare AI-reglering.
Både privata och statliga sektorer måste kontrollera dessa system. Annars kommer illvilliga individer att fortsätta att utnyttja dem för att bryta mot dataskyddslagar, verkställa identitetsstöld, och bedrägerioffer, bland andra olagliga aktiviteter.
5. Lägre inträdesbarriärer hämmar kvaliteten
Spridningen av språkmodeller med öppen källkod sänker inträdesbarriärerna för att gå med i AI-loppet. Du hittar tusentals AI-baserade verktyg online.
Att se företag ta till sig maskin- och djupinlärning kan verka imponerande, men få ger något verkligt värde. De flesta kopierar bara sina konkurrenter. Med tiden kan tillgängligheten till sofistikerade språkmodeller och träningsdatauppsättningar komma att vara meningslösa AI-plattformar.
Den övergripande effekten av språkmodeller med öppen källkod på AI-industrin
Även om språkmodeller med öppen källkod gör AI-teknik mer tillgänglig, innebär de också flera säkerhetsrisker. Utvecklare bör sätta strängare restriktioner. Crooks kommer att fortsätta att utnyttja dessa systems transparenta arkitektur annars.
Som sagt, konsumenter är inte helt försvarslösa mot AI-bedrägerier. Bekanta dig med de vanliga sätten att skurkar utnyttjar generativa AI-verktyg och studera varningstecken för attacker. Du kan bekämpa de flesta cyberbrott genom att vara vaksam.