Avast a Borsetta se připojují k Intelu: vzniká Private AI Collaborative Research Institute. Bude pomáhat výzkumníkům řešit výzvy spojené s umělou inteligencí

Avast 4 Pro 2020

Spolu se společností Borsetta se Avast připojil k Intelu a společně založili Private AI Collaborative Research Institute. Jaký je jeho účel?

Společně se společností Borsetta, která se zabývá hardwarovými službami zabezpečenými softwarem využívajícím AI, jsme se připojili k Intelu a založili Private AI Collaborative Research Institute. Cílem tohoto institutu je vytvářet a zdokonalovat technologie podporující ochranu soukromí a důvěru v decentralizovanou umělou inteligenci. 

Institut původně vznikl jako projekt centra University Research & Collaboration Office (URC) společnosti Intel, které nám na jeho vzniku nabídlo možnost spolupráce, což jsme s Borsettou rádi přijali. Společně jsme na počátku roku vyzvali výzkumníky, aby nám zaslali své výzkumné záměry, z nichž jsme vybrali devět vítězných. Ty se stanou prvními projekty, které institut Private AI Collaborative Research Institute podpoří. Výzkumy vznikají na těchto osmi univerzitách: 

  • Univerzita Carnegieho-Mellonových, USA
  • Kalifornská univerzita, San Diego, USA
  • Univerzita Jižní Kalifornie, USA
  • Torontská univerzita, Kanada
  • Univerzita ve Waterloo, Kanada
  • Technická univerzita Darmstadt, Německo
  • Katolická univerzita v Lovani, Belgie
  • Národní univerzita v Singapuru

Co bude institut dělat?

Private AI Collaborative Institute bude povzbuzovat a podporovat základní výzkum, který pomůže řešit aktuální problémy a výzvy spojené s vývojem umělé inteligence a podpoří etický přístup při vytváření této technologie. Pomocí decentralizace umělé inteligence a přesunutím AI analytiky na koncová zařízení se společnosti snaží osvobodit data z informačních sil, chránit soukromí a bezpečí uživatelů, a zároveň udržet efektivitu technologie.

Private AI Collaborative Institute se snaží překonat mnoho výzev a problémů spojených s vývojem nových technologií. Patří mezi ně mimo jiné:   

  • Trénovací data jsou decentralizovaná v izolovaných informačních silech, a jsou tak často nepřístupná pro centralizované učení. 
  • Dnešní řešení, která potřebují jediné důvěryhodné datové centrum, jsou křehká – centralizované učení může být jednoduše napadeno upravením dat kdykoli mezi získáním a uložením v cloudu. Neexistuje žádný rámec pro decentralizované zabezpečené trénování v prostředí s potenciálně nedůvěryhodnými prvky. 
  • Centralizované modely rychle zastarávají, protože se data v koncových zařízeních rychle mění. V současnosti používané občasné dávkové zpracování sběru, trénování a nasazení může vést k zastaralým modelům; není tedy možné využít metod kontinuálního a rozdílového učení. 
  • Centralizované výpočetní zdroje jsou nákladné a jsou omezovány zpožděním v komunikaci. 
  • Federované strojové učení, technika používaná k trénování algoritmů napříč mnoha decentralizovanými koncovými zařízeními, je limitované. Dnešní federovaná umělá inteligence se sice umí k datům v koncových zařízeních dostat, ale už nezaručuje přesnost, soukromí a bezpečnost. 

Proč je vznik institutu Private AI Collaborative Research Institute důležitý? 

Přečtěte si, co o institutu říkají zástupci společností, které se na jeho vzniku podíleli. 

Borsetta vidí budoucnost v hyperpropojeném světě, který ale musí vycházet z rámce chránícího naše soukromí s využitím umělé inteligence. „Mise Private AI Collaborative Institute odpovídá naší vizi bezpečnosti, která obstojí i v budoucnu, kde jsou data prokazatelně chráněna v rámci služeb důvěryhodně provozovaných na koncových zařízeních. Důvěra bude novou měnou budoucnosti, a proto musíme vytvořit koncová zařízení s umělou inteligencí s důrazem na důvěru, transparentnost a zabezpečení a zdokonalování lidských hodnot, které měla vždy reflektovat,” říká CEO Borsetty Pamela Norton

„S naším zkušeným výzkumným AI týmem a naší Laboratoří pro umělou inteligenci a kyberbezpečnost umístěnou v kampusu Českého vysokého učení technického v Praze jsme už teď svědky výborných výsledků našich výzkumů v oblasti propojování umělé inteligence, strojového učení a kyberbezpečnosti. Spolupráce odborníků z průmyslu s akademiky je klíčem k řešení velkých problémů dnešní doby, včetně etické a zodpovědné umělé inteligence. Umělá inteligence nabírá na síle i dosahu a nyní je čas problémy řešit, ne o nich jen mluvit. Jsme proto rádi, že můžeme spolupracovat s Intelem a Borsettou, díky čemuž budeme moci dosáhnout skutečného potenciálu umělé inteligence pro zachování bezpečí jednotlivců i jejich dat,” okomentoval vznik institutu technický ředitel Avastu Michal Pěchouček

Viceprezident, ředitel Intel Labs a Intel Senior Fellow Richard Uhlig k spolupráci firem dodává: „Umělá inteligence bude mít i nadále transformační dopad na mnoho průmyslových odvětví a směřuje k tomu, že se stane faktorem zásadně měnícím zdravotnictví, automobilový průmysl nebo kyberbezpečnost. Nicméně k tomu, aby byl dosažen skutečný potenciál umělé inteligence, je potřeba výzkumu, který se zaměří na její odpovědnost, zabezpečení a soukromí. Private AI Collaborative Research Institute se zavazuje ke zdokonalování technologií za pomoci etických principů, které staví lidi na první místo a zajišťují jednotlivcům bezpečí. Přizvali jsme Avast a Borsettu, aby se k nám přidali ve snaze porozumět skutečnému dopadu AI na svět kolem nás. Společně máme dobrou šanci odvrátit případná rizika a nebezpečí umělé inteligence.”

Jestli vás téma umělé inteligence, strojového učení nebo bezpečnosti a svobody na internetu zajímá, sledujte také naši facebookovou stránku, kde najdete novinky, tipy a rady ze světa kyberbezpečnosti. 



--> -->