Microsoft har vänt sitt AI-säkerhetsriskvärderingsverktyg, Counterfit, öppen källkod, så att alla kan börja använda verktyget gratis. För närvarande kan organisationer använda Counterfit för att automatisera säkerhetsriskbedömningar, vilket säkerställer att skyddet de använder är upp till noll.
Microsoft utvecklade ursprungligen Counterfit som ett internt verktyg som snabbt kunde bedöma säkerheten för AI och maskininlärningssystem. Det började livet som en samling skript innan den snabbt förvandlades till en generisk AI-automatisering som en operatör kan använda för att "attackera flera AI-system" på en gång.
Microsoft använder nu regelbundet Counterfit som ett kärnverktyg i deras AI-team. Eftersom Counterfit är miljö-, modell- och datagnostiker kan verktyget leverera exakt bedömning utan impedans.
Verktyget i sig är utformat för användning av säkerhetspersonal. Counterfit använder liknande arbetsflöden som andra populära red-team-verktyg som Metasploit eller PowerShell Empyre, med omfattande support för skript, förinstallerade attackalgoritmer, sårbarhetsskanning, avancerad loggning och mer, nås via kommandoraden.
Microsoft har arbetat mycket med säkerhetspersonal och stora organisationer för att utveckla Counterfit också bättre. På Microsofts säkerhetsblogg, Matilda Rhode, Senior Cybersecurity Researcher, Airbus, sa:
AI används alltmer i industrin; Det är viktigt att se framåt för att säkra denna teknik, särskilt för att förstå var funktionerna i rymden kan realiseras i problemutrymmet. Släppandet av open source-verktyg från en organisation som Microsoft för säkerhetsutövare att utvärdera säkerheten för AI-system är både välkommen och en tydlig indikation på att industrin tar detta problem allvarligt.
Du kan hitta öppen källkod Microsoft Counterfit på deras officiella GitHub.
Relaterad: Jobb du aldrig visste utfördes av AI
Varför är Counterfit användbart?
Även för ett företag som är lika stort som Microsoft är det inte enkelt att göra effektiva säkerhetsbedömningar, särskilt när dessa företag är enorma Fortune 500-ledare, regeringar, ideella organisationer och mer. En tidigare Microsoft-studie visade att ett stort antal företag som inte kunde testa sina AI-system noggrant.
Vi fann att 25 av 28 företag angav att de inte har rätt verktyg för att säkra sina AI-system och att säkerhetspersonal letar efter specifik vägledning i detta utrymme.
Counterfit gör det lättare att slutföra dessa bedömningar och automatisera analys- och testprocessen.
Relaterad: Sätt du kan använda AI-teknik för att förbättra ditt företag
Dessutom en nyligen publicerad Gartner-studie listade AI-säkerhetsåtgärd som en av de viktigaste säkerhetsåtgärderna ett företag kan vidta för att förbättra skyddet. Samma studie noterade att "År 2024 kommer organisationer som implementerar dedikerade AI-riskhanteringskontroller framgångsrikt att undvika negativa AI-resultat dubbelt så ofta som de som inte gör det."
Kort sagt bör Counterfit bli ett verktyg för öppen källkods-AI-bedömning för att göra världen till en något säkrare plats.
Behöver din nästa antivirusprenumeration inkludera artificiell intelligens, eller är det bara ett nytt säkerhetsord?
Läs Nästa
- säkerhet
- Tekniska nyheter
- Öppen källa
- Cybersäkerhet
Gavin är Junior Editor för Windows och Technology Explained, en regelbunden bidragsgivare till den riktigt användbara podcasten, och var redaktör för MakeUseOfs kryptofokuserade systersida, Blocks Decoded. Han har en BA (Hons) samtida skrivning med digital konstpraxis som plundrats från Devons kullar, samt över ett decennium av professionell skriverfarenhet. Han gillar stora mängder te, brädspel och fotboll.
Prenumerera på vårt nyhetsbrev
Gå med i vårt nyhetsbrev för tekniska tips, recensioner, gratis e-böcker och exklusiva erbjudanden!
Ett steg till…!
Bekräfta din e-postadress i e-postmeddelandet som vi just skickade till dig.