Jakiś czas temu myślałem co powoduje największy śmietnik w internecie. Oczywiście dowolność treści, forumów, komentarzy i "bylejakość" w dostępnej wiedzy. Na ratunek przychodzi koncept Web 3.0, który zainteresował mnie szczególnie. Powodemm tego zainteresowania jest codzinne wnioskowanie w życiu prywatnym i zawodowym bazujące na internecie.
Kiedyś należałem do kilku forów tematycznych, grup dyskusyjnych i miałem tam dyskusje n.t. zawodowe, które pojawaiały mi się na codzień ew. znajdowałem w indeksie (nie)typowe odpowiedzi.
Współcześnie indeksy wyszukiwarek internetowych oraz metawyszukiwarek są na tyle bodate, że podpowiadają artykuły na wiele tematów.
Kiedy coś wyszukujemy, rodzi się zawsze pytanie o jakość wyników. No tak, tutaj można jedynie czasorwać, bo na dzień dzisiajszy algorytmy Google przypominają zaawansowany webcrawling stron i jak kojarzę wsparcie dla tricków pozycjonowania stron tzn. SEO.
Coś czego mi brakuje, w temacie treści to "human computing" do oceny jakości treści w internecie robionym przez ludzi a nie algorytmy. I tutaj chciałem się z Wami podzielić znaleziskiem: oto ciekawa analizę konceptu Web 3.0, który wzbudził moje zaufanie i przekonuje mnie. Szczególnie poprzez zawarty diagram z niniejszą koncepcją:
W sumie bazuje na czymś co znamy już z rodzimego Allegro.pl, czyli referencji poprzez punkty, czy też gwiazdki wystawiane do obiektów/treści/produktów.
Oczywiście przy długu jakościowym sięgającym ~20 lat publikacji treści w Web 1.0 oraz Web 2.0 trudno mówić tutaj o ocenie zetabytów danych przez ludzi. Zdecydowanie pomocne mogą być tutaj sieci semantyczne oraz algorytmy sztucznej inteligencji (AI).
Linki:
Web 3.0 źródłem nowej wiedzy
Web 3.0 - internet bez ludzi
Subskrybuj:
Posty (Atom)