4 lipca 2011

Web 3.0 - czy ludzie i roboty pomogą ocenić bylejakie treści internetowe...

Jakiś czas temu myślałem co powoduje największy śmietnik w internecie. Oczywiście dowolność treści, forumów, komentarzy i "bylejakość" w dostępnej wiedzy. Na ratunek przychodzi koncept Web 3.0, który zainteresował mnie szczególnie. Powodemm tego zainteresowania jest codzinne wnioskowanie w życiu prywatnym i zawodowym bazujące na internecie.

Kiedyś należałem do kilku forów tematycznych, grup dyskusyjnych i miałem tam dyskusje n.t. zawodowe, które pojawaiały mi się na codzień ew. znajdowałem w indeksie (nie)typowe odpowiedzi.
Współcześnie indeksy wyszukiwarek internetowych oraz metawyszukiwarek są na tyle bodate, że podpowiadają artykuły na wiele tematów.

Kiedy coś wyszukujemy, rodzi się zawsze pytanie o jakość wyników. No tak, tutaj można jedynie czasorwać, bo na dzień dzisiajszy algorytmy Google przypominają zaawansowany webcrawling stron i jak kojarzę wsparcie dla tricków pozycjonowania stron tzn. SEO.
Coś czego mi brakuje, w temacie treści to "human computing" do oceny jakości treści w internecie robionym przez ludzi a nie algorytmy. I tutaj chciałem się z Wami podzielić znaleziskiem: oto ciekawa analizę konceptu Web 3.0, który wzbudził moje zaufanie i przekonuje mnie. Szczególnie poprzez zawarty diagram z niniejszą koncepcją:




W sumie bazuje na czymś co znamy już z rodzimego Allegro.pl, czyli referencji poprzez punkty, czy też gwiazdki wystawiane do obiektów/treści/produktów.

Oczywiście przy długu jakościowym sięgającym ~20 lat publikacji treści w Web 1.0 oraz Web 2.0 trudno mówić tutaj o ocenie zetabytów danych przez ludzi. Zdecydowanie pomocne mogą być tutaj sieci semantyczne oraz algorytmy sztucznej inteligencji (AI).


Linki:

Web 3.0 źródłem nowej wiedzy

Web 3.0 - internet bez ludzi