Temat: Bardzo duże repozytorium dokumentów
Nie zgadzam się z tym ostatnim stwierdzeniem. DAOS to mechanizm niskopoziomowy, przeźroczysty dla nawet dla API. Funkcja API odczytująca dokument z bazy nawet "nie wie", czy załącznik jest wewnątrz NSF czy w repozytorium DAOS.
Marek Kuchciak
Żeby była pełna jasność - nie stosowałbym (raczej)DAOS w tego rodzaju aplikacji (archiwum kilkaset GB). Nie chciałem przez to powiedzieć, że jestem przeciwnikiem stosowania DAOS w innych przypadkach, bo to bardzo ciekawa technologia.
Ale uważam, że w tym przypadku DAOS nam raczej nic da. Zużycia powierzchni dyskowej nie obniży- przy założeniu, że załączniki się nie duplikują. Co do wydajności operacji I/O - to ryzykowne stwierdzenie, że poprawia. Trzeba by dokładnie przeanalizować, co się dzieje przy odczycie i zapisie załącznika w obu przypadkach. Ważne jest też, na ile wydajnie poszczególne operacje zostały zaimplementowane przez programistów IBM (a to trudno ocenić).
Jakiś czas temu rozmawiałem z administratorem dużego serwera Domino (skrzynki pocztowe zajmowały kilka TB), który twierdził że wydajność Domino spadła po wdrożeniu DAOS. Trudno powiedzieć dlaczego. Stawiałbym na to, że wąskim gardłem może być w tym przypadku procesor raczej niż operacje I/O. Przypuszczam, że jest trochę "liczenia" przy operacjach związanych z DAOS.
Oczywiście charakterystyka implementacji DAOS na skrzynkach pocztowych i w omawianym przez nas systemie to dwie zupełnie różne bajki.
Archiwum wielkości kilkuset GB wcale nie musi być mocno obciążone. Tego nie zakładaliśmy (no, chyba że wpuścimy na nie kilkuset użytkowników). W mało obciążonym systemie, wydajność operacji I/O może nie mieć znaczenia. Nawet jeśli operacja odczytania załącznika z DAOS będzie trochę szybsza (mierząc czas operacji I/O) z tego samego dokumentu lub dokumentu umieszczonym w innym NSF-ie, to będzie miało to pomijalne znaczenie. Odczyt z innego NSF-a można robić jedną funkcją "GetDocumentByUNID", która działa bardzo szybko ..
A zarządzać DAOS z kilkuset GB ..policzmy. Zakładając, że średni plik to 10MB, to mamy 30,000 plików ..no niby software do backupów to załatwi przyrostowo, tym niemniej jednak nie wygląda to zachęcająco. Jeśli średni rozmiar pliku jest mniejszy, plików będzie więcej.
W przypadku osobnych NSF-ów, możemy to jakoś sami zorganizować, np. dzieląc archiwa chronologicznie, tak że starsze NSF-y się nie zmieniają. No, chyba że taka organizacja jest niemożliwa ..:) ..wówczas odpada jeden argument "za rozwiązaniem z osobnymi NSF-ami.
Na DAOS należy uważać, jeśli w archiwum naszym miałoby być dużo małych plików. Jak wiadomo, konfigurując DAOS określa się minimalną wielkość załącznika przechowywaną w DAOS i zalecane jest ok 64kB. Przypuszczalnie powodem wprowadzenia takiej rekomendacji jest narzut związany z umieszczaniem pliku w DAOS. Przypuszczalnie także dążenie do ograniczenia liczby plików w DAOS. Nie wiem czy są jakiekolwiek opracowania jak się DAOS zachowuje, jeśli zawiera dużą liczbę plików (kilkaset tysięcy lub więcej). Poza tym DAOS nie załatwi nam pól Rich Text, wklejonych obrazków, OLE itd.
Reasumując, podtrzymuję zdanie, że DAOS w tym przypadku raczej nie ..ale ..trzeba by rozpatrzeć charakter danej aplikacji, bo wszystko zależy ...:))
Artur Korol
Artur Korol edytował(a) ten post dnia 22.02.10 o godzinie 23:49