0:00
0:00
Dopisy11. 11. 20173 minuty

Dopisy

Astronaut

Jak být šťastný v práci

Respekt 41/2017

↓ INZERCE

V článku, který pojednává i o naší rodinné firmě, je uvedeno několik mylných nebo neúplných informací, které bychom rádi uvedli na pravou míru. Jednatel firmy Vojtěch Černák je původní profesí obráběč kovů, nikoli valcíř a firmu vlastní spolu se svým bratrem Radovanem. Konzultant Petr Ludwig v naší firmě nepracoval přímo, firemní vizi tvořil člen jeho týmu Lukáš Havránek a na zlepšování firemní kultury se významně podílela také koučka Kateřina Dudková. Strýc skladník nedostal výpověď, odešel z důvodu dlouhodobé nemoci. A stejně tak roztržka ohledně podoby loga neskončila otcovým opíjením, zůstalo jen u výhrůžných slov. Děkuji za vyjasnění.

Soňa Neničková, Č. V. PROTOTYP, s. r. o.

Velmistr boží

Respekt 45/2017

Jsem rád, že Respekt publikuje komentáře i o umělé inteligenci, která je rozhodně jedním z největších hybatelů současné společnosti a její význam bude narůstat. Všiml jsem si v poslední době jednoho trendu – mnoho různých lidí, od mých kamarádů, kteří se pohybují mimo počítače, až po známé osobnosti, jako je například Elon Musk, si představuje, že s příchodem umělé inteligence přijde éra zabijáckých robotů. Myslím, že komentář od Martina Uhlíře je v podobném duchu. Osobně vidím jeden mnohem větší problém umělé inteligence, a to (algoritmický) bias (předpojatost). V dnešní době umělá inteligence ještě není tak daleko, aby nad námi jako lidstvem převzala kontrolu, a ještě pár desetiletí nebude. Problém s algoritmickou předpojatostí tady už je a mnoho lidí ho nevnímá. Jakmile totiž systému umělé inteligence dáme data, která jsou biased, samotný systém bude biased. Například společnost Northpointe vyvinula systém COMPAS, který předpovídá, s jakou pravděpodobností se trestaný znovu dopustí nějakého trestného činu. Někteří soudci ho používají k posouzení dřívějšího propuštění trestaného (v angličtině „grant parole“). Přesný algoritmus společnost tají, ale společnost ProPublica (https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing/) při svém šetření zjistila, že systém je zaujatý vůči menšinám. Každý systém umělé inteligence je pouze tak dobrý a přesný a morálně správný jako lidé, kteří ho navrhovali a trénovali. Myslím, že toto je mnohem palčivější problém než zabijáčtí roboti, už jen tím, že mnoho lidí si neuvědomuje, kde všude se již s umělou inteligencí setkáváme. A garantuji vám, že všechny podobné systémy jsou náchylné k předpojatosti a záleží pouze na jejich inženýrech, jak se s tím vypořádají.

Nikola Jajcay


Pokud jste v článku našli chybu, napište nám prosím na [email protected].