środa, 18 sierpnia 2021

Zapytany o komentarz nt. algorytmu AI

mającego wykrywać treści pedofilskie, odpowiedziałem:

Niemożliwa jest chyba jednoznaczna i bezdyskusyjna odpowiedź na pytanie, czy jakikolwiek system sztucznej inteligencji, zdolny do analizy obrazu fotograficznego, a skonstruowany celem wychwytywania treści szkodliwych, potencjalnie niebezpiecznych lub świadczących o prawdopodobieństwie dokonania przestępstwa, jest zagrożeniem dla naszej prywatności, czy też dobrym ruchem dbającym o nasze bezpieczeństwo. Zarówno pojęcie prywatności, jak i pojęcie bezpieczeństwa są bowiem uwikłane w szereg korelacji między innymi aksjologicznych, a ujęte socjologicznie, ukazują swego rodzaju splątanie ludzkiego doświadczenia w sieci wielorakich zależności społecznych, strukturalnych, formalnoprawnych, moralnych i tym podobnych.

Szeroko pojęty informatyczny wymiar życia we współczesnym świecie nie pozwala w prosty sposób oddzielać tego, z czego chcemy dla własnego i wspólnego dobra korzystać, od tego, co postrzegamy jako dla nas niepokojące lub wprost niepożądane. Ale w pewnym sensie to jest problem "odwieczny", wszak nie od dzisiaj rozmaite nasze wytwory najzwyczajniej również utrudniają nam życie.

Błędem byłoby jednak pozostawianie tego zagadnienia jakiemuś "swojemu biegowi", z nadzieją, że sygnalizowane obawy o nieuprawnioną inwigilację i problemy z tych obaw wynikające rozwiążą się same. Im bardziej otwarta, krytyczna i wnikliwa będzie ekspozycja i dyskusja wszelkich pojawiających się wątpliwości, tym większe prawdopodobieństwo, że dobre rozwiązania informatyczne, organizacyjne itp. będą demaskowały i ograniczały pola rozmaitych, możliwych lub faktycznych nadużyć.

Opublikowano w:

Brak komentarzy:

Prześlij komentarz