Temat: Zaproszenie do ewaluacji technologii semantycznych i...
Andrzej Góralczyk:
Obejrzałem sobie plan tego badania i zniechęciłem się. Za duże, nie wezmę udziału.
Przy tej okazji zrodziło się pytanie: dlaczego nie zaczęto od przeglądu standardów i rozwiązań, które sprawdziły się, a które nie? Na przykład jest już sporo opracowań wyjaśniających, dlaczego DSpace nie zyskało popularności, a np. taki ArXiv.org nadal jest świetny, mimo że sędziwy.
W bibliotekach cyfrowych piętą achillesową są rzeczywiście narzędzia dostępu. Albo nic nie można znaleźć, albo jeśli już, to trzeba ślepić po całej stronie, aby zorientować się, co można z tym zrobić (ściągnąć, tylko czytać, cytować w formatach standardowych itd.?)
No i ta semantyka. Od dziesięcioleci próbują ją wykorzystywać informatycy, bezskutecznie, no bo bez udziału fachowców od semantyki. I na razie prawda jest taka, że nie ma dobrego rozwiązania na automatyczną maszynkę informatyczną, która zastąpiłaby bibliotekarza-dziedzinowca. Więc nie należy go zastępować, jeśli zasoby chcemy wykorzystywać, a nie tracić z oczu w czeluściach repozytoriów. Informatyka wówczas może się zająć tym, do czego się nadaje, czyli do budowania narzędzi dostępu do DOBRZE OPISANYCH zasobów. Rozwiązanie mam, tylko brakuje mi rzecznika patentowego, który nie bałby się tematu.
Chyba nie za bardzo zrozumialem - dlaczego wg Pana DSpace nie zyskal popularnosci? Smiem twierdzic ze to najbardziej popularna z bibliotek. E-Prints czy Greenstone depcza jej wszak po pietach, a na FEDORA wkracza ostro do akcji. DSpace 2.0 kiedy powstanie bedzie juz zupelnie inny - jesli wierzyc opracowaniom z przed roku gdzie analizowano kierunki rozwojwu.
Ze ewaluacja za dluga? Pewnie ze tak - ale z drugiej strony i tak nie jestem pewien czy jest w stanie wszystko wykazac. Dlaczego? Bo zeby poprawnie zadzialaly semantyka, profilowanie, i funkcje spoleczne - potrzeba wielu zasobow (to powiedzmy ze mamy), dobrze opisanych (no prawie), wielu ludzi (i juz jest wasko) i duzo czasu/interakcji (patrz - dlaczego ewaluacja jest taka dluga). Pana opinia, za ktora dziekuje, to tylko znak na to ze oprocz pracy nad sama biblioteka - trzeba jeszcze popracowac nad sama ewaluacja :)
Zaczalem wlasnie analizowac pierwsze wyniki - sa bardzo ciekawe. Dam znac jak bede mial juz je opracowane.
Co do semantyki - hmm - racja jezeli wziac po uwage cale lata AI, a na dodatek zle pojmowane cele - to mozna powiedziec ze badania trawaja juz dziesieciolecia. Ale tak na prawde Semantic Web, z caly swoim podejsciem do otwartosci informacji, ontologiami, itp - to nowa dziedzina. A juz zdazyle zaliczyc porazke, nieprawdaz? Bo nagle wszyscy mowia o Web 2.0, i tam widac potencjal.
Moje badania to obraz tego co stara sie promowac DERI - czyli polaczenie obu tredow, i wyciagniecie maksymalnie ile sie z tego da. Sadze wiec ze mamy szanse na stworzenie "elektronicznego bibliotekarza" w postaci spolecznosci wspieranej roznymi mechanizmami AI/Semantyka.
Pierwsze kroki na tym polu stawia wlasnie JeromeDL, ktory jest ucielesnieniem tych pomyslow jakie ja nazywam Semantic Digital Libraries. SemDL zyskuja powoli coraz wieksze grono zainteresowan. W tym roku zaproszona nas juz do JCDL z tutorialem. Przez ostatnie dwa lata na naszych tutorialach na JCDL2006, ESWC2007 i WWW2007 bylo calkiem sporo ludzi.
I zgadzam sie z Panem w jednym - to czego potrzebujemy jako bazy to **dobrze opisane zasoby**. Problem polega na tym ze opisy w stylu MARC21 to za malo. Dlaczego? Bo chociaz sa wielkie i szczegolowe - to nie sa w zadnym wypadku do "zrozumienia" przez maszyny (ani przez zwyklych ludzi), i nie dosc ze nie ma formalnych polaczen pomiedzy takimi metadanym, to jeszcze opisy w jezyku naturalnym potrafia czasami wystepowac w kilku jezykach jednoczesnie - sam widzialem tego przyklady dla starodrukow z WBSS (wbss.pg.gda.pl) gdzie opisy byly po polsku i po niemiecku, i nie byly to tlumaczenia.