Speciál: Umělá inteligence (bublina, nebo jen hype?) #31 – 2023

Speciál: Umělá inteligence (bublina, nebo jen hype?) 
-> Specialisté na umělou inteligenci budou ke sklonku roku 2023 na předních příčkách žádanosti, vychází ze studie Světového ekonomického fóra. Podle webu ITBiz.cz navíc umělá inteligence zamíchá úkoly v nejméně 80 % pracovních míst, tudíž je schopnost práce s AI pro firmy vitálně důležitá, např. v oblasti CRM. Pozici AI specialistů činí ještě žádanější výsledky studie Salesforce, která zjistila, že téměř čtvrtina zaměstnanců řadí dovednosti okolo AI mezi tři nejdůležitější, třebaže jen jeden z deseti pracovníků tvrdí, že tyto dovednosti má. [W] 

-> Vrcholu produktivity dosáhne technologie generativní AI během dvou až pěti let, vyplývá z hypekřivky společnosti Gartner. Nyní jsme však na samém vrcholu očekávání, a tudíž můžeme čekat v nejbližší době silné pochyby o technologii. Jan Kameníček na ITBiz.cz navíc upozorňuje, že implementace AI do firem je možná pouze tehdy, když společnost dosáhla jisté datové vyspělosti, která umožňuje efektivní a selektivní používání nástrojů AI v procesech firmy. Podle Kameníčka je důležité nezapomínat na integraci do současných systémů, a nejenom tvořit systémy nové. [W] 

-> ChatGPT 4 je mnohem robustnější a jeho obranné mechanismy nastavují nový standard, píše Pavel Houser na ITBiz.cz. I tak se však může dostat do konfliktu mezi znalostmi a bezpečnostními filtry, které jazykový model dostává při fázi RLHF (Reinforcement Learning from Human Feedback). „Jednou naučené znalosti je prakticky nemožné z [jazykových] modelů odstranit,“ vysvětluje team leader výzkumného týmu společnosti CheckPoint Tomáš Růžička a dodává: „Bezpečnostní mechanismy tedy především brání poskytnutí určitých informací, ale znalosti zcela neodstraňují.“ Toho lze zneužít např. při hraní hloupého, kterého má ChatGPT tendenci napravit, jak je to správně. Tímto postupem by ovšem jazykový model mohl vyzradit např. i recept na drogu, upozorňují výzkumníci z CheckPointu. Otázkám jak obejít různá omezení se v poslední době věnovali také zde, a zde.  [W] 

-> Open AI odstavila nástroj pro detekci textů napsaných pomocí umělé inteligence, zejména proto že jednoduše nebyl dost přesný. [W] 

-> Sdružení mediálních domů IAC, NewsCorp, NYT a dalších chystá koalici, která by měla usilovat o lobbying v oblasti AI a vést organizovaně soudní procesy proti firmám, které využijí jejich data pro trénování AI. Pozn. red.: Jde pochopitelně mnohdy o táž média, která usilují o to nasadit AI místo redaktorů, které propustí. [W]