Spolu se společností Borsetta se Avast připojil k Intelu a společně založili Private AI Collaborative Research Institute. Jaký je jeho účel?
Společně se společností Borsetta, která se zabývá hardwarovými službami zabezpečenými softwarem využívajícím AI, jsme se připojili k Intelu a založili Private AI Collaborative Research Institute. Cílem tohoto institutu je vytvářet a zdokonalovat technologie podporující ochranu soukromí a důvěru v decentralizovanou umělou inteligenci.
Institut původně vznikl jako projekt centra University Research & Collaboration Office (URC) společnosti Intel, které nám na jeho vzniku nabídlo možnost spolupráce, což jsme s Borsettou rádi přijali. Společně jsme na počátku roku vyzvali výzkumníky, aby nám zaslali své výzkumné záměry, z nichž jsme vybrali devět vítězných. Ty se stanou prvními projekty, které institut Private AI Collaborative Research Institute podpoří. Výzkumy vznikají na těchto osmi univerzitách:
- Univerzita Carnegieho-Mellonových, USA
- Kalifornská univerzita, San Diego, USA
- Univerzita Jižní Kalifornie, USA
- Torontská univerzita, Kanada
- Univerzita ve Waterloo, Kanada
- Technická univerzita Darmstadt, Německo
- Katolická univerzita v Lovani, Belgie
- Národní univerzita v Singapuru
Co bude institut dělat?
Private AI Collaborative Institute bude povzbuzovat a podporovat základní výzkum, který pomůže řešit aktuální problémy a výzvy spojené s vývojem umělé inteligence a podpoří etický přístup při vytváření této technologie. Pomocí decentralizace umělé inteligence a přesunutím AI analytiky na koncová zařízení se společnosti snaží osvobodit data z informačních sil, chránit soukromí a bezpečí uživatelů, a zároveň udržet efektivitu technologie.
Private AI Collaborative Institute se snaží překonat mnoho výzev a problémů spojených s vývojem nových technologií. Patří mezi ně mimo jiné:
- Trénovací data jsou decentralizovaná v izolovaných informačních silech, a jsou tak často nepřístupná pro centralizované učení.
- Dnešní řešení, která potřebují jediné důvěryhodné datové centrum, jsou křehká – centralizované učení může být jednoduše napadeno upravením dat kdykoli mezi získáním a uložením v cloudu. Neexistuje žádný rámec pro decentralizované zabezpečené trénování v prostředí s potenciálně nedůvěryhodnými prvky.
- Centralizované modely rychle zastarávají, protože se data v koncových zařízeních rychle mění. V současnosti používané občasné dávkové zpracování sběru, trénování a nasazení může vést k zastaralým modelům; není tedy možné využít metod kontinuálního a rozdílového učení.
- Centralizované výpočetní zdroje jsou nákladné a jsou omezovány zpožděním v komunikaci.
- Federované strojové učení, technika používaná k trénování algoritmů napříč mnoha decentralizovanými koncovými zařízeními, je limitované. Dnešní federovaná umělá inteligence se sice umí k datům v koncových zařízeních dostat, ale už nezaručuje přesnost, soukromí a bezpečnost.
Proč je vznik institutu Private AI Collaborative Research Institute důležitý?
Přečtěte si, co o institutu říkají zástupci společností, které se na jeho vzniku podíleli.
Borsetta vidí budoucnost v hyperpropojeném světě, který ale musí vycházet z rámce chránícího naše soukromí s využitím umělé inteligence. „Mise Private AI Collaborative Institute odpovídá naší vizi bezpečnosti, která obstojí i v budoucnu, kde jsou data prokazatelně chráněna v rámci služeb důvěryhodně provozovaných na koncových zařízeních. Důvěra bude novou měnou budoucnosti, a proto musíme vytvořit koncová zařízení s umělou inteligencí s důrazem na důvěru, transparentnost a zabezpečení a zdokonalování lidských hodnot, které měla vždy reflektovat,” říká CEO Borsetty Pamela Norton.
„S naším zkušeným výzkumným AI týmem a naší Laboratoří pro umělou inteligenci a kyberbezpečnost umístěnou v kampusu Českého vysokého učení technického v Praze jsme už teď svědky výborných výsledků našich výzkumů v oblasti propojování umělé inteligence, strojového učení a kyberbezpečnosti. Spolupráce odborníků z průmyslu s akademiky je klíčem k řešení velkých problémů dnešní doby, včetně etické a zodpovědné umělé inteligence. Umělá inteligence nabírá na síle i dosahu a nyní je čas problémy řešit, ne o nich jen mluvit. Jsme proto rádi, že můžeme spolupracovat s Intelem a Borsettou, díky čemuž budeme moci dosáhnout skutečného potenciálu umělé inteligence pro zachování bezpečí jednotlivců i jejich dat,” okomentoval vznik institutu technický ředitel Avastu Michal Pěchouček.
Viceprezident, ředitel Intel Labs a Intel Senior Fellow Richard Uhlig k spolupráci firem dodává: „Umělá inteligence bude mít i nadále transformační dopad na mnoho průmyslových odvětví a směřuje k tomu, že se stane faktorem zásadně měnícím zdravotnictví, automobilový průmysl nebo kyberbezpečnost. Nicméně k tomu, aby byl dosažen skutečný potenciál umělé inteligence, je potřeba výzkumu, který se zaměří na její odpovědnost, zabezpečení a soukromí. Private AI Collaborative Research Institute se zavazuje ke zdokonalování technologií za pomoci etických principů, které staví lidi na první místo a zajišťují jednotlivcům bezpečí. Přizvali jsme Avast a Borsettu, aby se k nám přidali ve snaze porozumět skutečnému dopadu AI na svět kolem nás. Společně máme dobrou šanci odvrátit případná rizika a nebezpečí umělé inteligence.”
Jestli vás téma umělé inteligence, strojového učení nebo bezpečnosti a svobody na internetu zajímá, sledujte také naši facebookovou stránku, kde najdete novinky, tipy a rady ze světa kyberbezpečnosti.