Podcast

Efekt Sieci #28 – Jasne i ciemne strony algorytmów

Poglądowa ilustracja reprezentująca nagrywanie podcastu

Udostępnij

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest
Share on whatsapp
Share on email

Tema­tem dru­gie­go odcin­ka kolej­ne­go sezo­nu pod­ca­stu „Efekt Sie­ci” są algo­ryt­my i sys­te­my opar­te na auto­ma­tycz­nym podej­mo­wa­niu decy­zji. Jak pisze Finan­cial Times, w USA pro­blem z rasi­stow­ski­mi czy sek­si­stow­ski­mi uprze­dze­nia­mi algo­ryt­mów zaczy­na przy­no­sić już real­ne stra­ty. Wła­śnie z takich powo­dów sys­te­my w Ida­ho zde­cy­do­wa­ły o obni­że­niu wyso­ko­ści wypła­ca­nych zasił­ków z sys­te­mu Medic-aid dla 4 tysię­cy nie­peł­no­spraw­nych. Z pro­ble­mem tym zetknął się tak­że Ama­zon, decy­du­jąc o tym, w jakich regio­nach wdro­żyć nową usłu­gę Pri­me, dzię­ki któ­rej kon­su­men­ci mają pra­wo do szyb­szej dosta­wy i spe­cjal­nych ofert pro­mo­cyj­nych. Algo­ryt­my Ama­zo­na z góry uzna­ły, że wdro­że­nie usłu­gi jest pozba­wio­ne sen­su w dziel­ni­cach zamiesz­ka­nych głów­nie przez mniej­szo­ści etnicz­ne, np. w Roxbu­ry w Bosto­nie czy South Side w Chi­ca­go. Stwier­dzi­ły jed­no­cze­śnie, że Pri­me powi­nien tra­fić do tzw. bia­łych dziel­nic. Czy jest się cze­go obawiać?

Eks­pert­ką odcin­ka jest Joan­na Mazur, ana­li­tycz­ka DELab UW i dok­to­rant­ka WPiA UW, filo­zof i antro­po­log kul­tu­ro­wy z Kole­gium Artes Libe­ra­les, któ­ra odpo­wia­da na pyta­nia dr Justy­ny Pokoj­skiej o:
- kon­se­kwen­cje, jakie nio­są za sobą sys­te­my opar­te na auto­ma­tycz­nych pro­ce­sach decy­zyj­nych,
- koniecz­ność pogo­dze­nia się z wypa­cze­nia­mi i skut­ka­mi ubocz­ny­mi, wpi­sa­ny­mi w dzia­ła­nie auto­ma­tycz­nych pro­ce­sów decy­zyj­nych,
- miej­sca i bran­że, gdzie maszy­ny zastę­pu­ją już czło­wie­ka w podej­mo­wa­niu decy­zji,
- zasto­so­wa­nie algo­ryt­mów w sek­to­rze publicz­nym,
- sce­na­riu­sze, w któ­rych auto­ma­tycz­ne podej­mo­wa­ne decy­zje sta­ją się ele­men­tem obo­wią­zu­ją­ce­go pra­wa,
- bez­pie­czeń­stwo i bez­stron­ność podej­mo­wa­nia decy­zji w ten spo­sób,
- kon­tro­lę nad opro­gra­mo­wa­niem i jego twór­ca­mi – ety­kę, trans­pa­rent­ność i przej­rzy­stość podej­mo­wa­nych z ich pomo­cą decyzji.

„Poważ­nym pro­ble­mem jest to, że nie ma pro­ce­dur, nie ma namy­słu nad tym, czy te algo­ryt­my powin­ny być upu­blicz­nio­ne. Są dzia­ła­nia podej­mo­wa­ne przez orga­ni­za­cje poza­rzą­do­we, któ­re skła­da­ją wnio­ski o dostęp do infor­ma­cji publicz­nej, żeby dostęp do takich algo­ryt­mów dostać. Dru­go­rzęd­ną kwe­stią jest to, jak ten algo­rytm dzia­ła, jeśli cho­dzi o wyni­ki, któ­re nam daje. Czy jest tak, że jest on dys­kry­mi­nu­ją­cy, czy nie, co jest naj­czę­ściej for­mu­ło­wa­nym wobec algo­ryt­mów zarzu­tem.. Moż­na posta­wić w dru­gą stro­nę argu­ment, że decy­zje wyda­wa­ne przez ludzi też są dys­kry­mi­nu­ją­ce, w związ­ku z czym jest to błęd­ne koło w momen­cie, w któ­rym uży­wa­my danych z decy­zji wyda­wa­nych przez ludzi, któ­re były dys­kry­mi­nu­ją­ce, algo­rytm sta­je się dys­kry­mi­nu­ją­cy i wła­ści­wie nie ma róż­ni­cy kto to robi. Dla­te­go tak waż­nym pro­ble­mem jest dostęp do tych algo­ryt­mów. Nie sama wie­dza na temat tego, jak te decy­zje są wyda­wa­ne, ale moż­li­wość zwe­ry­fi­ko­wa­nia na jakich pod­sta­wach są wydawane”.

― Joan­na Mazur, DELab UW, WPiA UW

Słuchaj podcastu na ulubionej platformie

Przewiń do góry