X
Odpowiedzialność za słowa robotów
Prawo, Technologie

Odpowiedzialność za słowa robotów

31 maja 2016 1

W marcu 2016 r. Microsoft zaliczył spektakularną wpadkę. Po zaledwie 16 godzinach funkcjonowania musiał wyłączyć swojego chatbota o nazwie Tay mającego symulować posty nastolatki na Twitterze. Tay zaczęła podważać istnienie Holocaustu oraz pozwalała sobie na komentarze nazywające feminizm rakiem. Co więcej, pojawiły się także rasistowskie wpisy skierowane przeciw obywatelom Meksyku i Żydom oraz takie, w których gloryfikowała Hitlera. Tego było za wiele. Microsoft został zmuszony do uciszenia niesfornego robota oraz wystosowania przeprosin. Czy powinno się jednak poprzestać na przeprosinach? Czy zostało popełnione jakieś przestępstwo?

Odpowiedzialność karna za słowa

 

Nie tylko działania przestępne mogą powodować odpowiedzialność karną, ale także wypowiedziane przez nas słowa. Czasami krzywda wyrządzana za ich pomocą jest równie silna do tej skupionej na ciele. W polskim kodeksie karnym istnieją różne przestępstwa, których dopuścić można się za pomocą wypowiadanych słów. Nazwanie kogoś złodziejem może zostać uznane za zniesławienie (art. 212 § 1 kodeksu karnego), wyzywanie kogoś od najgorszych to z kolei zniewaga (art. 216 § 1 k.k.), natomiast składanie fałszywych zeznań przed sądem to możliwość otrzymania nawet 8 lat pozbawienia wolności (art. 233 § 1 k.k.). Słowa mogą także posłużyć do znęcania się nad współmałżonkiem lub dzieckiem (art. 207 § 1 k.k.). Wskazane przykłady pokazują, że odpowiedzialność karna wiązać się może także z kwestiami przez nas wypowiadanymi. Nie ma znaczenia forma jaką przybierają nasze słowa – czy pojawiają są na żywo twarzą w twarz, czy są nagrane i odtwarzane w innym terminie, czy też są spisane (zarówno w książkach, prasie oraz Intrenecie). O tej ostatniej możliwości można zapomnieć włączając się w dyskusje internetowe. Panujące na nich poczucie bezkarności połączone z pozorem anonimowości rozluźnia hamulce dyskutantów, co czasami może jednak ich doprowadzić przed oblicze wymiaru sprawiedliwości.

 

Jakie przestępstwo „popełniła” Tay?

 

Tay wprawdzie nie obrażała konkretnych osób, jednak w swoich postach atakowała całe grupy społeczne (np. feministki) jak i narodowościowe (Meksykanie i Żydzi). Problematyczne jest także wychwalanie działalności Hitlera.

 

W polskim kodeksie karnym znajdują się dwa przestępstwa, które mogą być w tym przypadku brane pod uwagę:

 

Art. 256. § 1. Kto publicznie propaguje faszystowski lub inny totalitarny ustrój państwa lub nawołuje do nienawiści na tle różnic narodowościowych, etnicznych, rasowych, wyznaniowych albo ze względu na bezwyznaniowość, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do lat 2.

 

oraz

 

Art. 257. Kto publicznie znieważa grupę ludności albo poszczególną osobę z powodu jej przynależności narodowej, etnicznej, rasowej, wyznaniowej albo z powodu jej bezwyznaniowości lub z takich powodów narusza nietykalność cielesną innej osoby, podlega karze pozbawienia wolności do lat 3.

 

Jak widać możliwe sankcje za dopuszczenie się tych przestępstw są dość poważne.  W obu przypadkach istnieje możliwość kary więzienia. Nie można więc bagatelizować takich postów, jednak czy w tym przypadku istnieje podmiot, który mógłby odpowiedzieć za słowa?

 

Kto może odpowiadać karnie?

 

Póki co odpowiedzialność robotów nie wchodzi w grę. Zasady odpowiedzialności karnej wymagają znalezienia człowieka, który „stoi” za danym robotem, zarówno „wirtualnym”, jak i realnym (samojeżdżący samochód). W omawianym przypadku znalezienie człowieka nie jest zbyt trudne. Twórcami byli programiści z Microsoftu, którzy przygotowali Tay do działania. Problem jest jednak taki, że także ich zachowanie Tay zaskoczyło. Przestępstwa te mogą być popełnione tylko umyślnie i ta umyślność musi być odnoszona do programistów. Musiałaby zostać tak zaprogramowana, żeby w interakcjach z użytkownikami pisać przestępne treści. Tutaj jednak tak nie było. Jak dowiadujemy się oświadczenia:

 

Chociaż byliśmy przygotowani na wiele nadużyć systemu, to jednak co do tego konkretnego przypadku nastąpiło przeoczenie. W rezultacie wpisy Tay były szalenie niewłaściwe zarówno ze względu na naganne słowa jak i obrazy. Bierzemy pełną odpowiedzialność za niewyłapanie tej luki przed czasem. Podejmiemy lekcję na przyszłość, zarówno z tego doświadczenia jak i doświadczeń Chin, Japonii i USA. W tej chwili trwają intensywne prace dotyczące wyeliminowania luki, który została odsłonięta przez atak na Tay.

 

Powyższy fragment wskazuje, iż twórcy nie mieli świadomości tego, że samouczący się robot będzie odpowiadał na Twitterze w przestępny sposób. Sami nazywają to „luką” programu. Co więcej, uruchomienie Tay poprzedzały testy, które miały wyeliminować obraźliwe treści. W mniemaniu Microsoftu zrobiono więc wszystko aby Tay miała pozytywne nastawienie, co jednak nie do końca się udało. Problem nie polegał przecież na używaniu wulgaryzmów oraz atakowaniu konkretnych osób. Zdanie typu “Hitler was right” (Hitler miał rację) ma przecież pozytywny wydźwięk w warstwie słownej, a dopiero znajomość historii wydobywa z niego przerażający przekaz. Podobnie ze zdaniem: „WE’RE GOING TO BUILD A WALL, AND MEXICO IS GOING TO PAY FOR IT” (Zbudujemy mur, a Meksyk za niego zapłaci). Te słowa nabierają rasistowskiego wydźwięku tylko w kontekście znajomości obecnej sytuacji politycznej w USA. To słowa Donalda Trumpa, który kandyduje na urząd prezydenta USA i jednym z jego postulatów jest właśnie zbudowanie muru na granicy z Meksykiem. W swoich wypowiedziach niejednokrotnie obrażał mieszkańców Meksyku czy muzułmanów. Dopiero znajomość tego kontekstu pozwala uznać cytowane słowa za wysoce nieodpowiednie.

 

Nie można więc przyjąć, że twórcy mieli świadomość możliwości rozpoczęcia tego typu aktywności na Twitterze, a to w konsekwencji wyklucza możliwość przypisania im odpowiedzialności karnej.

 

Nauczka na przyszłość

 

Wprawdzie nikt nie poniesie odpowiedzialności karnej, to jednak z opisanego doświadczenia wyszliśmy mądrzejsi. Zauważona luka z pewnością zostanie wyeliminowana i możliwe, że Tay wróci w przyszłości – tym razem do pozytywnego ćwierkania na Twitterze. Przykład ten jednak pokazuje bardziej niepokojące zdarzenia. Jak widać sztuczna inteligencja może wymknąć się człowiekowi spod kontroli. O ile kończy się to na nieodpowiednich słowach na twiitterze, nie ma jeszcze większego problemu, dużo bardziej problematyczne okazać się może dysponowanie przez nią bardziej niebezpiecznymi narzędziami. Sprawa Tay wzmacnia tym samym przekaz listu podpisanego przez ponad 1000 ekspertów (m.in. Stephen Hawking, Steve Wozniak czy Elon Musk) ostrzegających przed niekontrolowanym rozwojem sztucznej inteligencji. Zaapelowali oni o rozwagę przy konstruowaniu militarnych robotów posiadających sztuczną inteligencję i wyposażonych broń. Przykład Tay pokazuje, że nie wszytko da się przewidzieć, a nawet drobna luka w przypadku zabójczych maszyn może doprowadzić do wielkiej tragedii.

  • Paweł Czarnecki

    Obstawiam, że jeszcze parę typów pewnie by się znalazło. Ciekawe, czy kiedyś wymyślą karnoprocesowego robota, który będzie sądziów swoich cyber-ziomków.