Jak badać przyszłość internetu?

Hitem ostat­nich kil­ku­na­stu mie­się­cy jest „sztucz­na inte­li­gen­cja”. Wszy­scy o niej piszą i gada­ją, zain­te­re­so­wa­nie – nawet jeśli ma swo­je gór­ki i doł­ki – nie słab­nie, wciąż jest na wzno­szą­cej. Za to kryp­to­wa­lu­ty mia­ły swój szczyt na prze­ło­mie 2017 i 2018, teraz wyda­ją się lek­ko pas­se. Nie to co robo­ty. Tu trend jest rów­nie sta­bil­ny, co w przy­pad­ku sztucz­nej inte­li­gen­cji, choć pozba­wio­ny spek­ta­ku­lar­nych sko­ków. Dużym wzię­ciem cie­szą się algo­ryt­my i media spo­łecz­no­ścio­we. Block­cha­in, podob­nie jak kryp­to­wa­lu­ty – chwy­cił tak sobie. Niby nie jest z nim źle, miał chwi­lę sła­wy, ale ewi­det­nie loku­je się gdzieś w środ­ku pele­to­nu, zdys­kon­to­wa­ny nawet przez spra­wę Cam­brid­ge Ana­li­ti­ca, któ­ra wzbu­dzi­ła kolo­sal­ne, acz krót­kie zain­te­re­so­wa­nie. Na sza­rym koń­cu pla­su­ją się te wszyst­kie spo­łecz­ne nudziar­stwa z dłu­ga bro­dą: cen­zu­ra sie­ci, mowa nie­na­wi­ści, bez­pie­czeń­stwo publicz­ne. Nawet „rosyj­ski trol­ling” może się scho­wać wzglę­dem ści­słej czołówki.

Jakub Jani­szew­ski 

No, dobrze, ale skąd to wia­do­mo? Roz­ma­ici blog­ge­rzy i kiep­skiej ran­gi publi­cy­ści, uwiel­bia­ją­cy tego rodza­ju zesta­wie­nia, przy­zwy­cza­ili nas, by o nowych tech­no­lo­giach pisać ze swa­dą i dezyn­wol­tu­rą god­ną felie­to­ni­stów żur­na­li o modzie. W więk­szo­ści wypad­ków to czy­sta spe­ku­la­cja – zestaw prze­ko­nań skle­jo­ny z paru lek­tur, zasły­sza­nych wypo­wie­dzi kole­gów po fachu,  haseł rzu­ca­nych przez dyżur­ne auto­ry­te­ty, wygła­sza­ją­ce peł­ne żaru prze­mo­wy moty­wa­cyj­ne, pod­czas  naj­więk­szych kon­fe­ren­cji tech­no­lo­gicz­nych. W tej mie­sza­ni­nie nar­cy­zmu i mar­ke­tin­gu ( naj­więk­si „wizjo­ne­rzy” pia­stu­ją zazwy­czaj sta­no­wi­ska pre­ze­sów mega-kor­po­ra­cji) nie­wie­le pozo­sta­je miej­sca na  rze­tel­ną ana­li­zę danych. Trend sta­je się tu rów­no­znacz­ny z przeczuciem.

Bywa jesz­cze gorzej. W podob­ny spo­sób kon­stru­owa­ne są pro­gno­zy naj­więk­szych firm kon­sul­tin­go­wych. Ame­ry­kań­ski Gart­ner nie od dzi­siaj umiesz­cza roz­ma­ite zja­wi­ska z zakre­su nowych tech­no­lo­gii na swo­im wykre­sie okre­śla­nym mia­nem „hype cyc­le”. W myśl teo­rii, jaką posłu­gu­je się przed­się­bior­stwo, każ­da inno­wa­cja, zanim na sta­łe wro­śnie w kra­jo­braz, prze­cho­dzi ten sam cykl roz­wo­jo­wy. Naj­pierw mamy prze­łom – bez wdro­żeń, za to z wiel­ki­mi nadzie­ja­mi na przy­szłość. Potem etap roz­dę­tych ocze­ki­wań, gdy krzy­wa bie­gnie stro­mo pod górę, a wszy­scy woko­ło ska­czą z pod­nie­ce­nia. Rów­nie pręd­ko zaczy­na się etap roz­cza­ro­wa­nia – poja­wia­ją się nega­tyw­ne arty­ku­ły w pra­sie inspi­ro­wa­ne pierw­szy­mi spek­ta­ku­lar­ny­mi nie­po­wo­dze­nia­mi. Tuż po praw­dzi­wym doł­ku inno­wa­cja zaczy­na dru­gie życie – poja­wia­ją się kolej­ne gene­ra­cje pro­duk­tów, ulep­szo­ne, choć wciąż nie­po­pu­lar­ne. Na tym eta­pie zale­d­wie 5% poten­cjal­nych klien­tów zaadap­to­wa­ło nowe roz­wią­za­nie. Ale tak wła­śnie zaczy­na się łagod­nie wio­dą­ce w górę „zbo­cze oświe­ce­nia” pro­wa­dzą­ce do „pła­sko­wy­żu pro­duk­tyw­no­ści”, czy­li eta­pu ryn­ko­wej doj­rza­ło­ści, gdy prze­ło­mo­we roz­wią­za­nie zdo­by­wa 20–30% poten­cjal­ne­go rynku.

Brzmi dobrze, ale tro­chę to wszyst­ko zbyt pro­ste. Weź­my choć­by tele­fon komór­ko­wy. Choć to praw­dzi­wy hit prze­ło­mu wie­ków i tech­no­lo­gia, któ­ra przy­czy­ni­ła się do powsta­nia dzi­siej­szych smart­fo­nów, wyna­la­zek na swój „hype” cze­kał dobre czte­ry deka­dy. Histo­ria mobil­nej tele­fo­nii się­ga przed­się­wzięć testo­wa­nych (a nawet wdra­ża­nych) jesz­cze w latach 50. Od tam­tej pory prze­szła dzie­siąt­ki, jeśli nie set­ki, górek i doł­ków. Jak je umie­ścić na wykre­sie Gart­ne­ra? Nie trze­ba, zresz­tą, cofać się aż do takiej pre­hi­sto­rii. Micha­el Mul­la­ny z Icon Ven­tu­res, jed­ne­go z naj­lep­szych fun­du­szy inwe­sty­cyj­nych w obsza­rze nowych tech­no­lo­gii, poku­sił się oneg­daj o ana­li­zę zale­d­wie kil­ku­na­stu lat publi­ka­cji krzy­wej Gart­ne­ra. Z tego dość pobież­ne­go prze­glą­du wyła­nia się obraz taniej eks­cy­ta­cji tech­no­lo­gicz­ny­mi nowin­ka­mi, praw­dzi­we­go zsy­pu mod­nych haseł, któ­re roz­bły­sku­ją na krzy­wej, a zaraz potem zni­ka­ją z niej na wie­ki, pozo­sta­wia­jąc poten­cjal­nych odbior­ców z całą masą pytań. Cza­sem też zda­rza im się wró­cić, w nowym prze­bra­niu i pod nową nazwą. Przykładowo:„data mining” poja­wi­ły się w ana­li­zie po raz pierw­szy w latach 90, po raz dru­gi w 2000 (już jako „ana­ly­tics”), a po raz trze­ci – w 2010, w wer­sji tzw. big data. To, że zawsze cho­dzi­ło o tę samą tech­no­lo­gię, jakoś niko­mu nie prze­szka­dza­ło, choć co wni­kliw­si odbior­cy mogli­by zgła­szać wątpliwości.

Jed­nak popu­lar­ność Gart­ne­ra nie słab­nie, prze­ciw­nie. Entu­zja­ści krzy­wej okre­śla­ją ją mia­nem „genial­nej” i zacho­dzą w gło­wę, jaki też rodzaj meto­do­lo­gicz­ne­go tric­ku stoi u jej pod­staw. Tym­cza­sem pro­blem z prze­wi­dy­wa­nia­mi przy­szło­ści jest taki, że nikt, póki co, nie potra­fi tego robić, a poten­cjal­ne prze­szko­dy sto­ją­ce na dro­dze naj­lep­szych nawet inno­wa­cji moż­na zli­czać w nie­skoń­czo­ność. Samo słyn­ne powie­dzon­ko Roya Ama­ry – że mamy ten­den­cję, by prze­ce­niać nowe tech­no­lo­gie w per­spek­ty­wie krót­ko­ter­mi­no­wej, a nie­do­ce­niać dłu­go­fa­lo­wo – to tro­chę zbyt mało, by na tej pod­sta­wie cokol­wiek wywró­żyć. Twór­cy krzy­wej potrak­to­wa­li je, z jed­nej stro­ny zbyt dosłow­nie (pró­bu­jąc za wszel­ką cenę prze­wi­dzieć tra­jek­to­rię roz­wo­ju bar­dzo róż­nych pro­duk­tów i usług), z dru­giej – zbyt lek­ko, zakła­da­jąc, że bez­sz­me­ro­we usu­nię­cie z kolej­nych edy­cji tech­no­lo­gii, któ­re jesz­cze rok, dwa lata wcze­śniej mia­ły swój „szczyt roz­dmu­cha­nych ocze­ki­wań”, nie pod­wa­ża sen­sow­no­ści same­go schematu.

Tym­cza­sem śle­dze­nie tren­dów to nie to samo co wróż­biar­stwo, a zapo­trze­bo­wa­nie na rze­tel­ną ana­li­zę zmian tech­no­lo­gicz­nych rośnie i to zarów­no z krę­gów biz­ne­so­wych, jak poli­tycz­nych. Naj­lep­szym dowo­dem powo­ła­na w 2016 unij­na ini­cja­ty­wa Next Gene­ra­tion Inter­net (NGI) sta­no­wią­ca ana­li­tycz­no-nauko­wo-esk­pe­ry­men­tal­ną przy­gryw­kę do wpro­wa­dze­nia Jed­no­li­te­go Ryn­ku Cyfro­we­go. W całym przed­się­wzię­ciu uczest­ni­czą euro­pej­skie uni­wer­sy­te­ty, start-upy i think-than­ki two­rzą­ce kil­ka sie­ci tema­tycz­nych poświę­co­nych roz­ma­itych aspek­tom cyfro­we­go spo­łe­czeń­stwa i gospo­dar­ki: od pry­wat­no­ści po rela­cje trans­atlan­tyc­kie. Naj­pro­ściej mówiąc cho­dzi o to, by pla­no­wa­ne znie­sie­nie barier regu­la­cyj­nych rze­czy­wi­ście zadzia­ła­ło i przy­nio­sło Unii Euro­pej­skiej moż­li­wie naj­wię­cej prze­wag kon­ku­ren­cyj­nych. Nic więc dziw­ne­go, że w ramach pro­jek­tu musia­ło tak­że poja­wić się coś na kształt obser­wa­to­rium tren­dów tech­no­lo­gicz­nych. Cho­dzi o tzw. Engi­ne­ro­om – pro­jekt reali­zo­wa­ny przez trzy euro­pej­skie pod­mio­ty – kata­loń­ski Eure­cat, bry­tyj­ską Nestę i war­szaw­ski DELab UW. I to wła­śnie w tym ostat­nim powsta­ły zrę­by meto­do­lo­gii bada­nia tren­dów tech­no­lo­gicz­nych. Czy­li dokład­nie tego, cze­go do tej pory naj­bar­dziej brakowało.

Bada­cze DELab wyszli z zało­że­nia, że na tren­dach zna­ją się naj­le­piej ci, któ­rzy sami je two­rzą – a więc wyspe­cja­li­zo­wa­ni w nowych tech­no­lo­giach dzien­ni­ka­rze oraz naukow­cy. A ponie­waż poję­cie tren­du jest, de fac­to, poję­ciem z zakre­su sta­ty­sty­ki – trze­ba zba­dać jak czę­sto, i w jakich kon­tek­stach, pisze się o nowych zja­wi­skach. Tę meto­do­lo­gię dr Maciej Wila­mow­ski,  kie­ru­ją­cy pra­ca­mi pol­skie­go zespo­łu Engi­ne­ro­om, opi­su­je, jako połą­cze­nie wie­dzy eks­perc­kiej i narzę­dzi typu google trends, czy­li po pro­stu ana­li­zę sta­ty­stycz­ną dużych zbio­rów danych.

Naj­pierw jed­nak nale­ża­ło te dane zebrać. Napi­sa­ne w tym celu pro­gra­my sie­cio­we, tzw. scrap­pe­ry, przez ponad 3 lata pobie­ra­ły tek­sty z naj­więk­szych ser­wi­sów tech­no­lo­gicz­nych, zarów­no tych popu­la­ry­za­tor­skich (jak Wired, Gizmo­do, Tech­For­ge lub Guar­dian Tech, Reu­ters), jak nauko­wych (np. arXiv, SSRN). W ten spo­sób powsta­ła baza zło­żo­na ze 140 000 arty­ku­łów opu­bli­ko­wa­nych w mass mediach oraz 800 000 z por­ta­li spe­cja­li­stycz­nych. Ten ogrom­ny zbiór danych liczą­cy kil­ka­dzie­siąt giga­baj­tów, nale­ża­ło następ­nie prze­siać, tak by uzy­skać gru­pę naj­czę­ściej poja­wia­ja­cych się ter­mi­nów – tych osta­tecz­nie wyty­po­wa­no 167. Dal­sza pra­ca mia­ła już cha­rak­ter jako­ścio­wy – zebra­ne ter­mi­ny moż­na było pogru­po­wać według roz­ma­itych kry­te­riów, np. łącząc w 23 więk­sze pod­gru­py tema­tycz­ne: AI, kryp­to­wa­lu­ty, 5g, cyber­bez­pie­czeń­stwo itp. Wyni­ki gru­po­wa­nia moż­na obej­rzeć na tym inte­rak­tyw­nym wykre­sie.

Rów­no­cze­śnie bada­cze podzie­li uzy­ska­ne wyni­ki na dwie głów­ne gru­py – naj­po­pu­lar­niej­sze tema­ty stric­te tech­no­lo­gicz­ne ver­sus spo­łecz­ne kon­se­kwen­cje wdro­żeń. Choć na wykre­sie dwa naj­więk­sze bąble są tej samej wiel­ko­ści trze­ba pamię­tać, że to jedy­nie kon­se­kwen­cja zasto­so­wa­ne­go podzia­łu. Spe­cja­li­stycz­na deba­ta wokół tech­no­lo­gii siłą rze­czy kon­se­kwen­cja­mi spo­łecz­ny­mi eks­cy­tu­je się mniej niż samym nauko­wo-tech­nicz­ną isto­tą każ­de­go z nowych roz­wią­zań. Stąd war­to spoj­rzeć na wykres samych tren­dów i doko­nać poró­wań – jak czę­sto media  pisa­ły np. o AI, a jak czę­sto o mediach spo­łecz­no­ścio­wych lub pra­wie patentowym.

Ten prze­chył moż­na zaob­ser­wo­wać w nastę­pu­ją­cym ukła­dzie odnie­sie­nia. Pio­no­wa oś podzia­łu technologiczne/społeczne nie zosta­ła umiesz­czo­na syme­trycz­nie, pośrod­ku. Jest prze­su­nię­ta na lewo, tak by zde­cy­do­wa­nie licz­niej­sze, domi­nu­ją­ce tren­dy tech­no­lo­gicz­ne zobra­zo­wać wyraź­niej i przej­rzy­ściej, kosz­tem tema­ty­ki spo­łecz­nej. Rów­no­cze­śnie oś pozio­ma poka­zu­je róż­ni­ce w deba­cie po obu stro­nach Atlan­ty­ku. Zgęsz­cze­nie w pra­wej gór­nej ćwiart­ce wykre­su suge­ru­je wyraź­nie, że to Euro­pa eks­cy­tu­je się wpły­wem nowych mediów na poli­ty­kę i demo­kra­cję, USA są tymi zagad­nie­nia­mi prze­ję­te zde­cy­do­wa­nie mniej. To pew­nie nie jest zasko­cze­niem zwa­żyw­szy choć­by sam finisz VIII kaden­cji Par­la­men­tu Euro­pej­skie­go. Led­wie ochło­nę­li­śmy po burz­li­wej dys­ku­sji wokół dyrek­ty­wy o pra­wie autor­skim, już wpa­dli­śmy w sam śro­dek bata­lii o wol­ność sło­wa, przy oka­zji pro­jek­tu pra­wa prze­ciw­dzia­ła­ją­ce­go umiesz­cza­niu w sie­ci tre­ści o cha­rak­te­rze terrorystycznym.

Sta­ny Zjed­no­czo­ne mają jed­nak inną, nie­kwe­stio­no­wa­ną prze­wa­gę. Bez wąt­pie­nia to wła­śnie  tam bije ser­ce nowych badań i odkryć nauko­wych. Gdy spoj­rzeć na gołe licz­by – naj­wię­cej aka­de­mic­kich tek­stów zwią­za­nych z sze­ro­ko poję­tą kom­pu­te­ry­za­cją powsta­je wciąż na ame­ry­kań­skich uni­wer­sy­te­tach – w bada­nym okre­sie było to ponad 130 000. Na dru­gim miej­scu są Chi­ny z pra­wie 80 000 prac.

No dobrze, a czy całe to bada­nie pozwa­la na jakieś prze­wi­dy­wa­nia przy­szło­ści? Czy może zastą­pić skom­pro­mi­to­wa­ną krzy­wą Gart­ne­ra? Nic podob­ne­go. Prze­ciw­nie – uważ­ne wczy­ta­nie się we wnio­ski z bada­nia pozba­wia nas  złu­dzeń nawet co wia­ry­god­no­ści choć­by krót­ko­ter­mi­no­wych pro­gnoz. Jesz­cze pół roku temu wśród klu­czo­wych pojęć poja­wia­ły się takie, jak „kill switch” (cał­ko­wi­te wyma­zy­wa­nie danych w sytu­acji zagro­że­nia bez­pie­czeń­stwa) lub „evo­lu­tio­na­ry com­pu­ting” (dzie­dzi­na badań nad algo­ryt­ma­mi). Dziś ich miej­sce zaję­ły hasła typu „Kuber­ne­tes” (two­rze­nie kla­strów ser­we­rów) lub „mas­si­ve mimo” (tech­no­lo­gia wyko­rzy­sty­wa­na w sie­ciach 5G). Ale czy poży­ją dłu­go? Nikt tego nie wie. Współ­cze­sna deba­ta tech­no­lo­gicz­na to dżun­gla – jed­ne gatun­ki żyją dłu­go, inne tyl­ko sezo­no­wo. Ale dzię­ki Engi­ne­ro­om wie­my przy­naj­mniej (i to dość dokład­nie) kie­dy wyro­sły i kie­dy obumar­ły. Z praw­dzi­wą dżun­glą nie zawsze się to udaje.

Wię­cej na stro­nie pro­jek­tu: https://fwd.delabapps.eu/

Scroll to Top