Slijedite ZDNET: Dodajte nas kao preferirani izvor na Googleu.
Sadržaj objave
ZDNET -ovi ključni poduhvat
- AI je i prijetnja kibernetičkom sigurnošću i rješenje.
- Referentne vrijednosti testirat će LLM-ove na stvarne zadatke kibernetičke sigurnosti.
- Suite bi mogao pomoći programerima da izgrade bolje modele.
Preplavljeno opcijama alata za kibernetičku sigurnost? Novi skup referentnih testova ima za cilj da vam pomogne da ih procijenite i pronađete prave za vas.
Također: Kretanje cyber prijetnji na AI u 2025 .: 4 Stručni sigurnosni savjeti za tvrtke
Softverska tvrtka CyberSecurity CrowdStrike udružila se s Meta kako bi pokrenula novi paket referentnih vrijednosti otvorenog koda kako bi testirao performanse AI modela u centru za sigurnosne operacije organizacije (SOC). Nazvan CybersocevalSuite je osmišljen kako bi pomogao tvrtkama da prođu kroz rastuću planinu alata za kibernetičku sigurnost na AI koji će im pomoći da se usavrše u onu koja je idealno prikladna za njihove potrebe.
“Bez jasnih mjerila, teško je znati koji sustavi, slučajeve upotrebe i standarde performansi pružaju istinsku AI prednost u odnosu na napade u stvarnom svijetu”, napisao je Crowdstrike u priopćenju za javnost.
Ovi se alati razlikuju u pogledu njihovih sposobnosti i cijene, što otežava profesionalcima za kibernetičku sigurnost da znaju koje odabir. Novi okvir testira velike jezične modele (LLMS) u ključnim referentnim vrijednostima kibernetičke sigurnosti, uključujući odgovor na incident, razumijevanje analize prijetnji i testiranje zlonamjernog softvera.
Također: ovaj ‘kritični’ nedostatak pokazivača mogao bi vam izložiti kôd zlonamjerni softver – kako to popraviti
Kao i svi okviri za testiranje AI modela, CyberSoceval je također namijenjen formaliziranju procjene LLM-ova za zadatke kibernetičke sigurnosti u stvarnom svijetu kako bi organizacijama pružila jasniju sliku snage i slabosti određenih sustava.
CyberSoceval bi također mogao pružiti programerima AI-ja više zrnato razumijevanje kako klijenti poduzeća koriste svoje modele za zadatke kibernetičke sigurnosti, što bi moglo dovesti do specijaliziranijih i sposobnijih modela.
Utrka oružja za kibernetičku sigurnost
Uspon AI omogućava nove prijetnje kibernetičkom sigurnošću, ali također stvara i rješenja – stvara neku vrstu digitalne utrke za oružje između loših aktera i SOCS -a. Prvi su tehnologiju koristili na nove i gadne načine, poput lozinke bruta, dok drugi sve više tkaju AI sustave u svoj sigurnosni alat.
Također: izgradio sam poslovni plan s chatgpt i on se pretvorio u priču o oprezu
U jednom ilustrativnom primjeru, nedavno istraživanje koje su proveli MasterCard i Financial Times Longitude otkrilo je da su mnoge tvrtke u sektoru financijskih usluga spasile milijune primjenom alata za cyber-sigurnost na AI pogonu protiv prevaranta s omogućenim AI.
Zamislite to poput biološke utrke za oružje koja se odvija unutar imunološkog sustava vašeg tijela. Vaše bijele krvne stanice uvijek moraju otkriti i boriti se protiv štetnih patogena, što se zauzvrat uvijek razvijaju kako bi postale više neotkriveni i imuni na naše lijekove za borbu protiv bolesti.
Na isti način, kibernetička sigurnost na AI stalno se mora boriti s novim prijetnjama na AI pogonu, čineći sve potrebnije pouzdanije alate, zajedno s boljim okvirima testiranja.
Ispitivanje otvorenog koda
Meta se dugo pozicionirao kao lider u AI otvorenom kodu, koji, za razliku od vlasničkih modela poput OpenAi’s GPT-5, na primjer, omogućava programerima pristup utezima modela ili, rijetko, čak i izvorni kod i izrađuju aplikacije na vrhu modela besplatno.
Također: Ne padajte na AI napade na dezinformacije na mreži – evo kako ostati oštro
Partnerstvo tvrtke s CrowdStrike označava svoje najnovije napore da organizacijama ponudi više mogućnosti otvorenih koda. Osnovni prodajni teren je da će se puštanjem paketa okvira za procjenu LLM-a koji su slobodno dostupni profesionalcima za cyber-sigurnost za testiranje i fino prilagođavanje, modeli će se poboljšati mnogo brže nego ako su evaluacija otvorena samo za tvrtke koje grade AI modele.
“S tim mjerilima uspostavljenim i otvorenim za sigurnost i zajednicu AI da se dodatno poboljša, možemo brže raditi kao industrija kako bismo otključali potencijal AI u zaštiti od naprednih napada, uključujući prijetnje temeljene na AI”, Vincent Gonguet, direktor proizvoda, Genai u Meta novom superinteligencijskom laboratorijskom podjeli, rekao je.
Kako isprobati
Sada možete pristupiti cybersoceval putem Github -ai pronađite više informacija o mjerilima ovdje.