Píše sa rok 2035 a roboty sú súčasťou takmer každej domácnosti. Riadia sa základnými pravidlami, ktoré im definoval spisovateľ Izák Assimov už v päťdesiatych rokoch 20. storočia vo svojej poviedke Runaround. Sú jednoduché:
- Robot nesmie ublížiť človeku alebo svojou nečinnosťou dopustiť, aby mu bolo ublížené.
- Robot musí poslúchnuť človeka, okrem prípadov, keď je to v rozpore s prvým zákonom.
- Robot sa musí chrániť pred poškodením, okrem prípadov, keď je to v rozpore s prvým alebo druhým zákonom.
Niektoré z nich sa však rozhodli, že sa nimi prestanú riadiť a skúsia ovládnuť svet. Našťastie, iba vo filmovom spracovaní, ktoré poznáme pod názvom „Ja Robot”.
Realita
Hoci v úvode hovoríme o sci-fi predstave, umelá inteligencia a počítače sa už aj dnes musia veľmi jasne a rýchlo rozhodnúť v rôznych životu nebezpečných okolnostiach. Na prvý pohľad jednoduché pravidlá tak dostávajú zaťažkávaciu skúšku.
Autonómne automobily, ktoré neustále vyhodnocujú situáciu okolo seba, sa môžu dostať do situácie, kedy je ublíženie človeku nezvratné. Ako sa majú v tomto prípade rozhodnúť? Je morálnejšie a etickejšie obetovať jedného človeka, aby ste zachránili ďalších piatich? Túto otázku si kládol aj filozof Philipp Foot takmer pred 50 rokmi v experimente známom aj ako „The trolley dilemma“.

Počítače nemajú pud sebazáchovy. Nerozhodujú sa v poslednej sekunde na základe pocitov alebo náhody. Postup majú naprogramovaný. Ako ich teda naučiť rozmýšľať eticky a morálne, aby sa zachovali v takýchto situáciách rovnako ako človek a navyše ešte správne?
Veľká výzva
Odpoveď na túto otázku hľadali vedci z Massachusettského technického inštitútu. Vyvinuli „morálny stroj” – ten mal preskúmať dilemy, ktorým môžu čeliť autonómne vozidlá v každodennej premávke. Na pomoc s odpoveďami prišlo 40 miliónov ľudí z viac než 200 kútov sveta.
Uprednostniť viac životov? Mladých ľudí pred staršími alebo chodcov, ktorí dodržiavajú pravidlá cestnej premávky pred tými, ktorí nedodržiavajú? Už len kombinácia všetkých týchto preferencií priniesla milión rôznych scenárov.

Ďalšia výzva situáciu ešte viac skomplikovala. Dáta museli odzrkadľovať rôzne etické alebo kultúrne prístupy v jednotlivých častiach sveta. Inak predsa rozmýšľajú Japonci a inak ľudia v arabských krajinách. Vznikla tak séria rôznych testov, ktoré skúšali ľudskú morálku v situáciách s nezvratným koncom.
Tie pomohli vedcom poznať preferencie ľudí. Uprednostnili by ľudský život pred tým zo živočíšnej ríše, väčšiu skupinu pred menšou alebo mladého človeka pred starším.
Etika nášho zmýšľania

Edmond Awad, jeden z autorov výskumu, uviedol ako príklad sociálne postavenie človeka. „Zdá sa, že si ľudia myslia, že je v poriadku ušetriť vyššie postaveného človeka v porovnaní s tým nižšie postaveným,“ povedal.












[…] Vývoj aplikácie, ktorá dokáže dôsledne a správne identifikovať druh, je ambicióznym prvkom umelej inteligencie. Cez algoritmus, kódovaný rozhodovací proces, musia prejsť stovky tisíc obrázkov, aby sme […]