Sąd nad sztuczną inteligencją będzie jednocześnie istotnym wyzwaniem dla prawników. Chodzi o system prowadzący autonomicznie samochody marki Tesla. W USA prawo formalnie nie zabrania samosterujących się pojazdów, znacznie większym ograniczeniem jest ludzkie zaufanie do nieomylności algorytmów takiego wirtualnego kierowcy. Amerykańskie prawo, a zapewne wraz z nim także prawodawstwo innych krajów, będzie musiało dopiero uregulować ten problem.
Sprawa, której dotyczyć będzie rozprawa z L.A. Wypadek miał miejsce 29 grudnia 2019 roku, kiedy to samochód Tesla Model S wyjeżdżając z autostrady w miejscowości Gardena zignorował czerwone światło i wbił się w Hondę Civic. Na miejscu zginęła para jadąca hondą. Dwójka młodych ludzi, według doniesień ich krewnych, była na swojej pierwszej randce.
W tesli był kierowca, ale czy wypadek został spowodowany przez niego? Otóż w trakcie tragedii włączony był autopilot. Dlatego rodzina jednej ze zmarłych osób pozywa firmę Tesla, jako odpowiedzialną za działanie oprogramowania samochodowego, którego nieodpowiednie działanie doprowadziło do wypadku.
- Nie mogę powiedzieć, że kierowca jest bez winy, ale to system Tesli, Autopilot oraz rzecznicy tej firmy nakłaniają kierowców do bycia mniej uważnymi – mówi adwokat Donald Slavik, reprezentujący rodziny zmarłych w rozmowie z agencją Reutera – Tesla wie o tym, że kierowcy używają systemu w niebezpiecznych sytuacjach.
Szef firmy Tesla, miliarder Elon Musk stwierdził w tym roku, że udostępnianie w swoich samochodach systemu autopilota jest „moralnym obowiązkiem”, nawet jeśli nie jest idealny i firma może mieć procesy. Przekonywał, że mimo tego to wynalazek, który może uratować wiele ludzkich istnień.