Wysoki kontrast
Wielkość tekstu
Dostępność
  • Dostępność
    • Wysoki kontrast
    • Wielkość tekstu
    • Dostępność

Algorytm strachu, czy strach przed algorytmem?

Najnowsze informacje

Czy algorytmy nas dyskryminują? Jeśli tak, to jak temu zapobiec? Czym jest właściwie dyskryminacja? W jaki sposób tworzone są algorytmy i gdzie mogą znaleźć zastosowanie? Jak zapobiec manipulacjom decyzjami podejmowanymi przez maszyny? Te oraz inne kwestie poruszyli uczestnicy panelu dyskusyjnego pt. „Algorytm strachu, czy strach przed algorytmem?” 7 września podczas Forum Ekonomicznego w Karpaczu. 

O problemach nowych technologii dyskutowali: Lauri Tankler – Kierownik Koordynacji Badań i Rozwoju w estońskim Urzędzie ds. Ochrony Informacji; Jan Kreft – profesor Politechniki Gdańskiej; Andres Kütt – ekspert Cyber4Dev z Estonii; Attila Menyhárd – wykładowca na węgierskim Uniwersytecie Loránda Eötvösa; Inez Okulska – Dyrektor Departamentu Innowacji i Technologii NASK. Moderatorem spotkania był Witold Tabaka – redaktor portalu Capital24.tv.

Rozwój branży cyfrowej w ostatnich latach niesamowicie przyśpieszył. Eksperci dostrzegają jej niemal nieograniczone możliwości, a z drugiej strony ostrzegają przed zagrożeniami i dylematami natury etycznej.


Attila Menyhárd, ekspert ds. relacji prawa ze sztuczną inteligencją, podkreślił, iż problem polega na tym, że na poziomie społeczeństwa oraz w środowisku prawniczym nie ma zgody na to, czym jest właściwie dyskryminacja. Nie ma też zgody w tym temacie wśród matematyków, którzy mówią, że jeżeli dane zjawisko potwierdzają statystyki, jest to wystarczające uzasadnienie. Zdaniem panelisty dyskryminacja to coś, co powoduje społeczne wykluczenie, ale prawnicy i matematycy powinni dojść do konsensusu i opracować akceptowalną przez wszystkich definicję, która znajdzie zastosowanie przy tworzeniu algorytmów. Należy też zastanowić się nad tym, czy to sam produkt ma być zatwierdzany czy proces jego wytwarzania. Jak z kwestią potencjalnego dyskryminowania radzi sobie estoński rząd oraz o sukcesach na tym polu mówił Lauri Tankler – Kierownik Koordynacji Badań i Rozwoju w estońskim Urzędzie ds. Ochrony Informacji. Stwierdził on jasno, że niebezpieczeństwo bycia dyskryminowanym np. w trakcie ubiegania się o udzielenie kredytu bankowego, było równie duże, kiedy obywatel Estonii musiał udać się do banku i nawiązać kontakt z jego pracownikiem, ponieważ ludzie mogą kierować się osobistymi uprzedzeniami. Zdaniem panelisty to właśnie od czasów, kiedy w bankach zaczęto wykorzystywać algorytmy i cyfryzować usługi osobista dyskryminacja została w znacznym stopniu ograniczona. A potencjalne problemy w tym obszarze powinno rozwiązywać wspólnymi ograniczeniami nakładanymi przez Unię Europejską na duże podmioty cyfrowe, takie jak Google, aby sposób ich działania oraz zbierania danych o użytkownikach był bardziej przejrzysty.


 Ponadto człowiek, o którym są zbierane informacje przez algorytm w danej instytucji lub firmie powinien na własne żądanie mieć dostęp do informacji nt. tego, na podstawie jakich danych, które zebrał np. bank została wydana decyzja o udzieleniu kredytu lub odmowie jego udzielenia.


Dyrektor Departamentu Innowacji i Technologii NASK, Inez Okulska stwierdziła, że problemem nie jest sama sztuczna inteligencja oraz algorytm, ale to do jakich celów wykorzystują go ludzie.


Algorytmy predykcyjne w najprostszym wydaniu uczą się na danych z przeszłości. Jeśli ludzie nieświadomie popełniali błędy, nowy algorytm będzie się na nich wzorował” – mówiła na panelu Inez Okulska. Można więc powiedzieć, że jeżeli algorytm został stworzony przez ludzi, którzy w jakiś sposób byli uprzedzeni, to prawdopodobne jest, że zawarli swoje uprzedzenia czy dyskryminujące poglądy w systemie. Dlatego tak istotne są etyka oraz właściwe analizy już na etapie projektowania algorytmu. Zaproszeni goście zastanawiali się też jak algorytmy mogą wpłynąć na zbliżające się w Polsce wybory i co należałby zrobić, aby ograniczyć ten wpływ. Jednak jednym z najciekawszych pytań skierowanym do panelistów przez moderatora, było pytanie o to, czego najbardziej boją się w sztucznej inteligencji? Inez Okulska odpowiedziała, że to nie sztucznej inteligencji się boi, a ludzi oraz tego jak użyją algorytmów, jakie prawa im przypiszą, jakie krytyczne procesy będą próbowali nimi zastąpić.


 Attila Menyhárd jako prawnik bałby się stworzenia iluzji, że jesteśmy w stsnie rozwiązać nasze problemy ze sztuczną inteligencją oraz nadmiernych regulacji prawnych z tym związanych. Lauri Tankler obawia się natomiast braku systemu zapewniającego przejrzystość, a uzasadniając jej potrzebę podkreśla: „Dopóki nie będzie systemu zapewniającego przejrzystość bardzo boję się swoich błędów z przeszłości, bo kiedy algorytm będzie się o mnie uczył, o tym że w niewłaściwym czasie poszedłem w niewłaściwe miejsce, jeśli te dane zostaną zebrane i wykorzystane, rodzi to strach nie tylko przed przeszłością, ale i ludźmi, którzy oczekiwaliby, że dam im drugą szansę”.


 Andres Kütt nie czuje strachu przed algorytmami podobnie, jak Inez Okulska. To, co budzi jego niepokój to łączenie ze sobą złożonych rzeczy, procesów i zjawisk np. algorytmów, ludzi i przedsiębiorstw. Owa złożoność może nastręczać wielu problemów i negatywnych skutków.

Skip to content