You are currently viewing Jak badać przyszłość internetu?

Jak badać przyszłość internetu?

  • Post category:Blog

Hitem ostatnich kilkunastu miesięcy jest „sztuczna inteligencja”. Wszyscy o niej piszą i gadają, zainteresowanie – nawet jeśli ma swoje górki i dołki – nie słabnie, wciąż jest na wznoszącej. Za to kryptowaluty miały swój szczyt na przełomie 2017 i 2018, teraz wydają się lekko passe. Nie to co roboty. Tu trend jest równie stabilny, co w przypadku sztucznej inteligencji, choć pozbawiony spektakularnych skoków. Dużym wzięciem cieszą się algorytmy i media społecznościowe. Blockchain, podobnie jak kryptowaluty – chwycił tak sobie. Niby nie jest z nim źle, miał chwilę sławy, ale ewidetnie lokuje się gdzieś w środku peletonu, zdyskontowany nawet przez sprawę Cambridge Analitica, która wzbudziła kolosalne, acz krótkie zainteresowanie. Na szarym końcu plasują się te wszystkie społeczne nudziarstwa z długa brodą: cenzura sieci, mowa nienawiści, bezpieczeństwo publiczne. Nawet „rosyjski trolling” może się schować względem ścisłej czołówki.

Jakub Janiszewski 

No, dobrze, ale skąd to wiadomo? Rozmaici bloggerzy i kiepskiej rangi publicyści, uwielbiający tego rodzaju zestawienia, przyzwyczaili nas, by o nowych technologiach pisać ze swadą i dezynwolturą godną felietonistów żurnali o modzie. W większości wypadków to czysta spekulacja – zestaw przekonań sklejony z paru lektur, zasłyszanych wypowiedzi kolegów po fachu,  haseł rzucanych przez dyżurne autorytety, wygłaszające pełne żaru przemowy motywacyjne, podczas  największych konferencji technologicznych. W tej mieszaninie narcyzmu i marketingu ( najwięksi „wizjonerzy” piastują zazwyczaj stanowiska prezesów mega-korporacji) niewiele pozostaje miejsca na  rzetelną analizę danych. Trend staje się tu równoznaczny z przeczuciem.

Bywa jeszcze gorzej. W podobny sposób konstruowane są prognozy największych firm konsultingowych. Amerykański Gartner nie od dzisiaj umieszcza rozmaite zjawiska z zakresu nowych technologii na swoim wykresie określanym mianem „hype cycle”. W myśl teorii, jaką posługuje się przedsiębiorstwo, każda innowacja, zanim na stałe wrośnie w krajobraz, przechodzi ten sam cykl rozwojowy. Najpierw mamy przełom – bez wdrożeń, za to z wielkimi nadziejami na przyszłość. Potem etap rozdętych oczekiwań, gdy krzywa biegnie stromo pod górę, a wszyscy wokoło skaczą z podniecenia. Równie prędko zaczyna się etap rozczarowania – pojawiają się negatywne artykuły w prasie inspirowane pierwszymi spektakularnymi niepowodzeniami. Tuż po prawdziwym dołku innowacja zaczyna drugie życie – pojawiają się kolejne generacje produktów, ulepszone, choć wciąż niepopularne. Na tym etapie zaledwie 5% potencjalnych klientów zaadaptowało nowe rozwiązanie. Ale tak właśnie zaczyna się łagodnie wiodące w górę „zbocze oświecenia” prowadzące do „płaskowyżu produktywności”, czyli etapu rynkowej dojrzałości, gdy przełomowe rozwiązanie zdobywa 20-30% potencjalnego rynku.

Brzmi dobrze, ale trochę to wszystko zbyt proste. Weźmy choćby telefon komórkowy. Choć to prawdziwy hit przełomu wieków i technologia, która przyczyniła się do powstania dzisiejszych smartfonów, wynalazek na swój „hype” czekał dobre cztery dekady. Historia mobilnej telefonii sięga przedsięwzięć testowanych (a nawet wdrażanych) jeszcze w latach 50. Od tamtej pory przeszła dziesiątki, jeśli nie setki, górek i dołków. Jak je umieścić na wykresie Gartnera? Nie trzeba, zresztą, cofać się aż do takiej prehistorii. Michael Mullany z Icon Ventures, jednego z najlepszych funduszy inwestycyjnych w obszarze nowych technologii, pokusił się onegdaj o analizę zaledwie kilkunastu lat publikacji krzywej Gartnera. Z tego dość pobieżnego przeglądu wyłania się obraz taniej ekscytacji technologicznymi nowinkami, prawdziwego zsypu modnych haseł, które rozbłyskują na krzywej, a zaraz potem znikają z niej na wieki, pozostawiając potencjalnych odbiorców z całą masą pytań. Czasem też zdarza im się wrócić, w nowym przebraniu i pod nową nazwą. Przykładowo:„data mining” pojawiły się w analizie po raz pierwszy w latach 90, po raz drugi w 2000 (już jako „analytics”), a po raz trzeci – w 2010, w wersji tzw. big data. To, że zawsze chodziło o tę samą technologię, jakoś nikomu nie przeszkadzało, choć co wnikliwsi odbiorcy mogliby zgłaszać wątpliwości.

Jednak popularność Gartnera nie słabnie, przeciwnie. Entuzjaści krzywej określają ją mianem „genialnej” i zachodzą w głowę, jaki też rodzaj metodologicznego tricku stoi u jej podstaw. Tymczasem problem z przewidywaniami przyszłości jest taki, że nikt, póki co, nie potrafi tego robić, a potencjalne przeszkody stojące na drodze najlepszych nawet innowacji można zliczać w nieskończoność. Samo słynne powiedzonko Roya Amary – że mamy tendencję, by przeceniać nowe technologie w perspektywie krótkoterminowej, a niedoceniać długofalowo – to trochę zbyt mało, by na tej podstawie cokolwiek wywróżyć. Twórcy krzywej potraktowali je, z jednej strony zbyt dosłownie (próbując za wszelką cenę przewidzieć trajektorię rozwoju bardzo różnych produktów i usług), z drugiej – zbyt lekko, zakładając, że bezszmerowe usunięcie z kolejnych edycji technologii, które jeszcze rok, dwa lata wcześniej miały swój „szczyt rozdmuchanych oczekiwań”, nie podważa sensowności samego schematu.

Tymczasem śledzenie trendów to nie to samo co wróżbiarstwo, a zapotrzebowanie na rzetelną analizę zmian technologicznych rośnie i to zarówno z kręgów biznesowych, jak politycznych. Najlepszym dowodem powołana w 2016 unijna inicjatywa Next Generation Internet (NGI) stanowiąca analityczno-naukowo-eskperymentalną przygrywkę do wprowadzenia Jednolitego Rynku Cyfrowego. W całym przedsięwzięciu uczestniczą europejskie uniwersytety, start-upy i think-thanki tworzące kilka sieci tematycznych poświęconych rozmaitych aspektom cyfrowego społeczeństwa i gospodarki: od prywatności po relacje transatlantyckie. Najprościej mówiąc chodzi o to, by planowane zniesienie barier regulacyjnych rzeczywiście zadziałało i przyniosło Unii Europejskiej możliwie najwięcej przewag konkurencyjnych. Nic więc dziwnego, że w ramach projektu musiało także pojawić się coś na kształt obserwatorium trendów technologicznych. Chodzi o tzw. Engineroom – projekt realizowany przez trzy europejskie podmioty – kataloński Eurecat, brytyjską Nestę i warszawski DELab UW. I to właśnie w tym ostatnim powstały zręby metodologii badania trendów technologicznych. Czyli dokładnie tego, czego do tej pory najbardziej brakowało.

Badacze DELab wyszli z założenia, że na trendach znają się najlepiej ci, którzy sami je tworzą – a więc wyspecjalizowani w nowych technologiach dziennikarze oraz naukowcy. A ponieważ pojęcie trendu jest, de facto, pojęciem z zakresu statystyki – trzeba zbadać jak często, i w jakich kontekstach, pisze się o nowych zjawiskach. Tę metodologię dr Maciej Wilamowski,  kierujący pracami polskiego zespołu Engineroom, opisuje, jako połączenie wiedzy eksperckiej i narzędzi typu google trends, czyli po prostu analizę statystyczną dużych zbiorów danych.

Najpierw jednak należało te dane zebrać. Napisane w tym celu programy sieciowe, tzw. scrappery, przez ponad 3 lata pobierały teksty z największych serwisów technologicznych, zarówno tych popularyzatorskich (jak Wired, Gizmodo, TechForge lub Guardian Tech, Reuters), jak naukowych (np. arXiv, SSRN). W ten sposób powstała baza złożona ze 140 000 artykułów opublikowanych w mass mediach oraz 800 000 z portali specjalistycznych. Ten ogromny zbiór danych liczący kilkadziesiąt gigabajtów, należało następnie przesiać, tak by uzyskać grupę najczęściej pojawiajacych się terminów – tych ostatecznie wytypowano 167. Dalsza praca miała już charakter jakościowy – zebrane terminy można było pogrupować według rozmaitych kryteriów, np. łącząc w 23 większe podgrupy tematyczne: AI, kryptowaluty, 5g, cyberbezpieczeństwo itp. Wyniki grupowania można obejrzeć na tym interaktywnym wykresie.

Równocześnie badacze podzieli uzyskane wyniki na dwie główne grupy – najpopularniejsze tematy stricte technologiczne versus społeczne konsekwencje wdrożeń. Choć na wykresie dwa największe bąble są tej samej wielkości trzeba pamiętać, że to jedynie konsekwencja zastosowanego podziału. Specjalistyczna debata wokół technologii siłą rzeczy konsekwencjami społecznymi ekscytuje się mniej niż samym naukowo-techniczną istotą każdego z nowych rozwiązań. Stąd warto spojrzeć na wykres samych trendów i dokonać porówań – jak często media  pisały np. o AI, a jak często o mediach społecznościowych lub prawie patentowym.

Ten przechył można zaobserwować w następującym układzie odniesienia. Pionowa oś podziału technologiczne/społeczne nie została umieszczona symetrycznie, pośrodku. Jest przesunięta na lewo, tak by zdecydowanie liczniejsze, dominujące trendy technologiczne zobrazować wyraźniej i przejrzyściej, kosztem tematyki społecznej. Równocześnie oś pozioma pokazuje różnice w debacie po obu stronach Atlantyku. Zgęszczenie w prawej górnej ćwiartce wykresu sugeruje wyraźnie, że to Europa ekscytuje się wpływem nowych mediów na politykę i demokrację, USA są tymi zagadnieniami przejęte zdecydowanie mniej. To pewnie nie jest zaskoczeniem zważywszy choćby sam finisz VIII kadencji Parlamentu Europejskiego. Ledwie ochłonęliśmy po burzliwej dyskusji wokół dyrektywy o prawie autorskim, już wpadliśmy w sam środek batalii o wolność słowa, przy okazji projektu prawa przeciwdziałającego umieszczaniu w sieci treści o charakterze terrorystycznym.

Stany Zjednoczone mają jednak inną, niekwestionowaną przewagę. Bez wątpienia to właśnie  tam bije serce nowych badań i odkryć naukowych. Gdy spojrzeć na gołe liczby – najwięcej akademickich tekstów związanych z szeroko pojętą komputeryzacją powstaje wciąż na amerykańskich uniwersytetach – w badanym okresie było to ponad 130 000. Na drugim miejscu są Chiny z prawie 80 000 prac.

No dobrze, a czy całe to badanie pozwala na jakieś przewidywania przyszłości? Czy może zastąpić skompromitowaną krzywą Gartnera? Nic podobnego. Przeciwnie – uważne wczytanie się we wnioski z badania pozbawia nas  złudzeń nawet co wiarygodności choćby krótkoterminowych prognoz. Jeszcze pół roku temu wśród kluczowych pojęć pojawiały się takie, jak „kill switch” (całkowite wymazywanie danych w sytuacji zagrożenia bezpieczeństwa) lub „evolutionary computing” (dziedzina badań nad algorytmami). Dziś ich miejsce zajęły hasła typu „Kubernetes” (tworzenie klastrów serwerów) lub „massive mimo” (technologia wykorzystywana w sieciach 5G). Ale czy pożyją długo? Nikt tego nie wie. Współczesna debata technologiczna to dżungla – jedne gatunki żyją długo, inne tylko sezonowo. Ale dzięki Engineroom wiemy przynajmniej (i to dość dokładnie) kiedy wyrosły i kiedy obumarły. Z prawdziwą dżunglą nie zawsze się to udaje.

Więcej na stronie projektu: https://fwd.delabapps.eu/