Rickas Caccia, generalinis direktorius ir įkūrėjas „Litwerai“, turi didelę patirtį pradedant saugumo ir atitikties produktus. Jis atliko lyderystės vaidmenis produktuose ir rinkodaroje „Palo Alto Networks“, „Google“ ir „Symantec“. „Caccia“ anksčiau vadovavo produktų rinkodarai „ArcSight“ per savo IPO ir vėlesnes veiklos kaip valstybinės bendrovės veiklą ir ėjo pirmojo vyriausiojo rinkodaros pareigūno pareigas „Exabeam“. Jis turi kelis laipsnius iš Kalifornijos universiteto, Berkeley.
„Witherai“ kuria saugumo platformą, skirtą užtikrinti saugų ir saugų AI naudojimą įmonėse. Su kiekvienu pagrindiniu technologiniu pokyčiu, tokiu kaip žiniatinklio, mobiliųjų ir debesų kompiuterija, atsiranda naujų saugumo iššūkių, sukuriančių galimybes pramonės lyderiams atsirasti. AI parodo kitą šios evoliucijos ribą.
Bendrovė siekia įsitvirtinti kaip AI saugumo lyderė, derindama mašinų mokymosi, kibernetinio saugumo ir didelio masto debesų operacijų patirtį. Jos komanda suteikia didelę AI plėtros, atvirkštinės inžinerijos ir kelių debesų „Kubernetes“ diegimo patirtį, spręsdama kritinius iššūkius, susijusius su AI varomomis technologijomis.
Kas paskatino jus kartu įkurti „Lessionai“ ir kokius pagrindinius AI valdymo ir saugumo iššūkius jūs siekėte išspręsti?
Kai pirmą kartą įkūrėme įmonę, mes manėme, kad saugumo komandos susirūpins dėl jų vidinių AI modelių išpuolių. Vietoj to, pirmieji 15 CISO, su kuriais kalbėjome, pasakyta priešingai, kad plačiai paplitęs įmonių LLM diegimas buvo toli, tačiau skubi problema buvo apsaugoti jų darbuotojus kitų žmonių AI programų naudojimą. Mes žengėme žingsnį atgal ir pamatėme, kad problema nėra gąsdinanti kibernetinėmis puolimais. Tai saugiai leido įmonėms produktyviai naudotis AI. Nors valdymas gali būti ne toks seksualus nei kibernetiniai išpuoliai, tačiau to iš tikrųjų reikėjo saugumo ir privatumo komandoms. Jiems reikėjo matomumo to, ką jų darbuotojai veikė su trečiųjų šalių AI, būdu įgyvendinti priimtiną naudojimo politiką ir būdą apsaugoti duomenis, neužblokuojant šių duomenų naudojimo. Taigi tai mes pastatėme.
Atsižvelgiant į jūsų didelę patirtį „Google Cloud“, „Palo Alto Networks“ ir kitose kibernetinio saugumo firmose, kaip tie vaidmenys paveikė jūsų požiūrį į „Litwersai“ kūrimą?
Bėgant metams kalbėjau su daugeliu CISO. Vienas iš labiausiai paplitusių dalykų, kuriuos šiandien girdžiu iš „Cisos“, yra: „Aš nenoriu būti„ gydytojas ne “, kai kalbama apie AI; Noriu padėti mūsų darbuotojams tai naudoti, kad būtų geriau. “ Kaip tas, kuris ilgą laiką dirbo su kibernetinio saugumo pardavėjais, tai yra labai skirtingas teiginys. Tai labiau primena „Dotcom“ erą, kai žiniatinklis buvo nauja ir transformacinė technologija. Kai mes sukūrėme „Litwerai“, mes konkrečiai pradėjome nuo produktų galimybių, kurios padėjo klientams saugiai priimti AI; Mūsų žinia buvo, kad šie dalykai yra tarsi magija ir, žinoma, visi nori patirti magiją. Manau, kad apsaugos įmonės per greitai žaidžia „Fear“ kortelę, ir mes norėjome būti kitokie.
Kas išskiria „Lessionai“ iš kitų AI valdymo ir saugumo platformų šiandien?
Na, viena vertus, dauguma kitų erdvės pardavėjų pirmiausia yra sutelkti į saugumo dalį, o ne į valdymo dalį. Man valdymas yra tarsi automobilio stabdžiai. Jei tikrai norite greitai nuvykti, be galingo variklio, jums reikia efektyvių stabdžių. Niekas nesiruošia vairuoti „Ferrari“ labai greitai, jei neturi stabdžių. Tokiu atveju jūsų įmonė, naudojanti AI, yra „Ferrari“, o „Litwerai“ yra stabdžiai ir vairas.
Priešingai, dauguma mūsų konkurentų sutelkia dėmesį į teorinius baisius išpuolius prieš organizacijos AI modelį. Tai tikra problema, tačiau tai yra kitokia problema, nei įgyti matomumo ir kontrolės, kaip mano darbuotojai naudoja bet kurią iš 5000 ir daugiau AI programų jau internete. Mums daug lengviau pridėti AI ugniasienę (ir mes turime), nei tai yra AI ugniasienės pardavėjams, kad būtų galima pridėti veiksmingą valdymą ir rizikos valdymą.
Kaip „Litwerai“ subalansuoja AI inovacijų poreikį su įmonės saugumu ir atitiktimi?
Kaip jau rašiau anksčiau, mes tikime, kad AI turėtų būti panaši į magiją – tai gali padėti jums padaryti nuostabius dalykus. Turint tai omenyje, mes manome, kad AI inovacijos ir saugumas yra susietos. Jei jūsų darbuotojai gali saugiai naudotis AI, jie tai naudos dažnai ir jūs pasitrauksite į priekį. Jei pritaikysite tipinę saugos mąstyseną ir užrakinsite ją, jūsų konkurentas to nepadarys, ir jie pasitrauks į priekį. Viskas, ką mes darome, yra tai, kad būtų galima saugiai pritaikyti AI. Kaip man pasakė vienas klientas, „tai yra magija, tačiau dauguma pardavėjų tai traktuoja taip, kaip tai buvo juoda magija, baisu ir kažkas, ko bijoti“. „Litesaiai“ mes padedame įgalinti magiją.
Ar galite kalbėti apie pagrindinę bendrovės filosofiją apie AI valdymą – ar jūs matote AI saugumą kaip įmanomą, o ne apribojimą?
Mes reguliariai turime „Cisos“ ateinančius pas mus renginiuose, kuriuose pateikėme, ir jie mums sako: „Jūsų konkurentai yra apie tai, kokia baisi yra AI, ir jūs esate vienintelis pardavėjas, kuris mums sako, kaip iš tikrųjų efektyviai jį naudoti.“ „Sundar Pichai“ „Google“ teigė, kad „AI gali būti gilesnė už ugnį“, ir tai yra įdomi metafora. Kaip mes neseniai matėme, ugnis gali būti nepaprastai žalinga. Tačiau kontroliuojamas gaisras gali padaryti plieną, kuris pagreitina naujoves. Kartais „Withersai“ kalbame apie naujovių, leidžiančių mūsų klientams saugiai nukreipti AI „ugnį“, sukūrimą, kad būtų sukurtas plieno ekvivalentas. Arba, jei manote, kad AI yra panaši į magiją, galbūt mūsų tikslas yra suteikti jums stebuklingą lazdelę, nukreipti ir valdyti.
Bet kuriuo atveju mes visiškai tikime, kad tikslas yra saugiai įgalinti AI. Tiesiog, kad pateiktumėte pavyzdį, yra daugybė duomenų praradimo prevencijos (DLP) įrankių, tai technologija, kuri veikė amžinai. Ir žmonės bando pritaikyti DLP AI naudojimui, o galbūt DLP naršyklės kišenė mato, kad ilgai rašėte, prašydami pagalbos atliekant jūsų darbą, ir kad raginimas reklamuoja kliento ID numerį. Kas atsitiks? DLP produktas blokuoja raginimą išeiti, ir jūs niekada negaunate atsakymo. Tai apribojimas. Vietoj to, naudodamiesi „Withersai“, mes galime nustatyti tą patį skaičių, tyliai ir chirurginiu būdu jį redaguoti skrendant, o po to neatsakyti į AI atsakymą, kad gautumėte naudingą atsakymą, kartu saugodami savo duomenis. Tai įgalinimas.
Su kokiomis didžiausiomis rizikomis susiduria įmonės, kai dislokuojant generatyvinę AI, ir kaip jas sušvelnina „Litwerai“?
Pirmasis yra matomumas. Daugelis žmonių nustebo sužinoję, kad AI programos visata nėra tik pokalbių ir dabar „Deepseek“; Internete yra tūkstančiai AI programų, o įmonės sugeria darbuotojų riziką, naudojančią šias programas, todėl pirmas žingsnis yra matomumas: Kurios AI programos naudoja mano darbuotojus, ką jie daro su tomis programomis, ir ar tai rizikinga?
Antrasis yra kontrolė. Jūsų teisinė komanda sukūrė išsamią priimtino AI naudojimo politiką, užtikrinančią klientų duomenų, piliečių duomenų, intelektinės nuosavybės ir darbuotojų saugumą. Kaip įgyvendinsite šią politiką? Ar tai jūsų „Endpoint“ saugos produkte? Savo užkardoje? Savo VPN? Jūsų debesyje? O kas, jei jie visi yra iš skirtingų pardavėjų? Taigi, jums reikia būdo, kaip apibrėžti ir įgyvendinti priimtiną naudojimo politiką, atitinkančią AI modelius, programas, debesis ir saugos produktus.
Trečiasis yra jūsų programų apsauga. 2025 m. Pamatysime daug greitesnį LLM priėmimą įmonėse, o paskui greičiau įdiegti pokalbių programas, kurias maitina tų LLM. Taigi, įmonės turi įsitikinti, kad ne tik tai, kad programos būtų apsaugotos, bet ir tai, kad programos nesako „kvailų“ dalykų, pvz., Rekomenduoti konkurentą.
Mes kreipiamės į visus tris. Mes pateikiame matomumą, kuriose programose žmonės naudojasi, kaip jie naudoja tas programas, politiką, pagrįstą tuo, kas jūs esate ir ką jūs bandote padaryti, ir labai veiksmingos priemonės, leidžiančios užkirsti kelią išpuoliams, tokiems kaip „Jailbreaks“ ar nepageidaujamas elgesys iš jūsų robotų.
Kaip „Lesseai“ AI stebėjimo funkcija padeda įmonėms sekti darbuotojų AI naudojimą ir užkirsti kelią „šešėlinio AI“ rizikai?
„Lesterai“ lengvai prisijungia prie jūsų tinklo ir tyliai sukuria kiekvienos AI programos katalogą (ir tiesiogine prasme yra tūkstančiai jų internete), kuriai prieiga prie jūsų darbuotojų. Mes jums pasakojame, kur yra tos programos, kur jos priglobia savo duomenis ir tt, kad suprastumėte, kokios rizikos yra šios programos. Galite įjungti pokalbio matomumą, kur mes naudojame gilų paketų patikrinimą, kad stebėtume raginimus ir atsakymus. Mes galime klasifikuoti raginimus pagal riziką ir ketindami. Ketinimas gali būti „rašyti kodą“ arba „parašyti įmonės sutartį“. Tai svarbu, nes tada leidžiame jums rašyti ketinimus pagrįstą politikos kontrolę.
Kokį vaidmenį vaidina AI politikos vykdymo užtikrinimas užtikrinant įmonių AI atitiktį ir kaip „LessionAI“ supaprastina šį procesą?
Atitiktis reiškia užtikrinti, kad jūsų įmonė laikytųsi taisyklių ar politikos, ir yra dvi dalys, užtikrinančios atitikties. Pirma, jūs turite sugebėti nustatyti probleminę veiklą. Pvz., Turiu žinoti, kad darbuotojas naudojasi klientų duomenimis taip, kad būtų galima atlikti duomenų apsaugos įstatymą. Mes tai darome su savo stebėjimo platforma. Antroji dalis yra politikos aprašymas ir įgyvendinimas prieš šią veiklą. Jūs nenorite tiesiog žinoti, kad klientų duomenys nutekėja, norite sustabdyti jo nutekėjimą. Taigi, mes sukūrėme unikalų AI specifinį politikos variklį, liudytoją/kontrolę, kuris leidžia lengvai sukurti tapatybę ir ketinimus pagrįstą politiką, skirtą apsaugoti duomenis, užkirsti kelią kenksmingiems ar neteisėtiems atsakymams ir pan., Pvz., Galite sukurti politiką Tai sako kažką panašaus: „Tik mūsų teisinis departamentas gali naudoti„ CHATGPT “, norėdamas rašyti įmonių sutartis, ir, jei jie tai padarys, automatiškai redaguokite bet kurį PII“. Lengva pasakyti, o su „Litwersai“ lengva įgyvendinti.
Kaip „Lessionai“ nagrinėja susirūpinimą dėl LLM „Jailbreaks“ ir greitų injekcijų išpuolių?
Mes turime sunkių AI tyrimų komandą – tikrai aštriai. Anksčiau jie sukūrė sistemą sintetinių atakų duomenims sukurti, be to, kad pateko į plačiai prieinamus mokymo duomenų rinkinius. Dėl to mes pažymėjome greitą injekciją prieš viską, mes esame daugiau nei 99% veiksmingi ir reguliariai sugauname atakas, kurių patys praleidžia patys.
Praktiškai dauguma kompanijų, su kuriomis kalbame, nori pradėti nuo darbuotojų programų valdymo, o po to šiek tiek vėliau jos sukuria AI klientų programą pagal jų vidinius duomenis. Taigi, jie naudoja liudytojus, kad apsaugotų savo žmones, tada įjungia greitą injekcijos ugniasienę. Viena sistema, vienas nuoseklus būdas kurti politiką, lengvai matoma.
Kokie yra jūsų ilgalaikiai „Litwuyai“ tikslai ir kur, jūsų manymu, AI valdymas vystosi per ateinančius penkerius metus?
Iki šiol mes čia kalbėjome tik apie programos modelį „Asmenyje“. Kitas mūsų etapas bus tvarkyti programą, ty „Agentic AI“. Mes sukūrėme API savo platformoje, kad jie vienodai gerai veiktų tiek su agentais, tiek su žmonėmis. Be to, mes tikime, kad sukūrėme naują būdą, kaip AI amžiuje pasiekti tinklo lygio matomumą ir politikos kontrolę, ir mes auginsime įmonę.
Dėkojame už puikų interviu, skaitytojai, norintys sužinoti daugiau, turėtų apsilankyti „Withersai“.