#73 EU ideas on the regulation of non-human persons

When we think of arti­fi­cial intel­li­gen­ce, what comes to mind are asso­cia­tions with scien­ce-fic­tion films in which robots have beco­me the sour­ce of vario­us pro­blems. At the regu­la­to­ry level, howe­ver, the­re are other kinds of chal­len­ges, such as con­cre­te pro­po­sals to adapt alre­ady exi­sting algo­ri­thms to social reali­ties and to mini­mi­ze pro­blems with high-risk applications. 

Dr. Joan­na Mazur, a DELab UW ana­lyst and assi­stant pro­fes­sor at the Facul­ty of Mana­ge­ment at the Uni­ver­si­ty of War­saw, talks abo­ut how arti­fi­cial intel­li­gen­ce is regu­la­ted today, which pro­ces­ses are sub­ject to regu­la­tion and whe­ther regu­la­tions at the EU and inter­na­tio­nal level are only abo­ut robots, answe­ring Dr. Justy­na Pokoj­ska’s questions abo­ut:
- reasons why arti­fi­cial intel­li­gen­ce needs to be regu­la­ted,
- the valu­es that guide AI regu­la­tors and the requ­ire­ments regu­la­ted by the Euro­pe­an Com­mis­sion,
- spe­ci­fic pro­po­sals emer­ging in the con­text of regu­la­tion, e.g. algo­ri­thms for auto­ma­tic deci­sion-making,
- con­tro­ver­sial pro­vi­sions in regu­la­tions con­cer­ning arti­fi­cial intel­li­gen­ce,
- sys­tems that ana­ly­se per­so­nal data and beha­vio­ur in order to tre­at citi­zens dif­fe­ren­tly based on an asses­sment (social cre­dit sys­tem),
- the defi­ni­tion and regu­la­tion of high-risk appli­ca­tions,
- moves to cre­ate robot rights,
- part­ner­ship inte­rac­tions with «non-human» per­sons in the light of EU regu­la­tions,
- discri­mi­na­to­ry actions embed­ded in algorithms.

Share

Myślę, że może­my spoj­rzeć na to zagad­nie­nie z per­spek­ty­wy tego, na jakie­go rodza­ju pra­wa wdra­ża­nia roz­wią­zań wyko­rzy­stu­ją­cych sztucz­ną inte­li­gen­cję może mieć wpływ. Jeże­li zasta­no­wi­my się na tym, w jaki spo­sób wyko­rzy­sty­wa­ne są nasze dane w roz­wo­ju tego typu roz­wią­zań, jak może­my być pod­da­wa­ni podej­mo­wa­niu decy­zji z wyko­rzy­sta­niem sztucz­nej inte­li­gen­cji, zakres wpły­wu tego typu tech­no­lo­gii na nasze życia może być dale­ko więk­szy (…) w związ­ku z czym wyda­je się to natu­ral­ne, że zain­te­re­so­wa­nie tym, aby regu­lo­wać korzy­sta­nie ze sztucz­nej inte­li­gen­cji w Unii Euro­pej­skiej się poja­wia. Przede wszyst­kim ze wzglę­du na to, że Unia pró­bu­je rzeź­bić jakąś ścież­kę dla sie­bie w tym świe­cie nowych tech­no­lo­gii, któ­ra opar­ta była­by – przy­naj­mniej teo­re­tycz­nie – na ochro­nie naszych praw.

― Dr. Joan­na Mazur, DELab UW, Facul­ty of Mana­ge­ment UW

Listen to the podcast on your favorite platform

More podcasts

Z dr Justyną Pokojską (DELab UW, WS UW) o tworzeniu naukowych podcastów.
Z dr Moniką Paluch-Ferszt (ŚLJC UW) i dr. inż. Tomaszem Krawczykiem (DELab UW, EEN UW) o zastosowaniu metody Monte Carlo.
Z dr Moniką Paluch-Ferszt (SLCJ UW) i dr inż. Tomaszem Krawczykiem (DELab UW) o metodzie Monte Carlo.
Z Patrykiem Grzybowskim (MSD UW, Wydział Fizyki UW) o zasadach działania teledetekcji.
Z Łukaszem Nawaro (DELab UW, WNE UW) o stabilności wirtualnych walut.
Scroll to Top