Temat: Hadoop w Polsce
Witam serdecznie,
1) W opowiedzi na pytania Dariusza Marcinka:
Hadoop'em zajmuje się już od jakiegoś czasu. Najpierw w Netezza/IBM, gdzie pracowałem nad projektem IBM Netezza Engine for Hadoop, który jest implementacją paradygmatu MapReduce działającą na rozproszonych bazach danych Netezza. O projekcie można dowiedzieć się nieco więcej tutaj:
http://slidesha.re/GE95Yz (slajdy 21-24).
Od połowy marca pracuję w ICM UW, gdzie przetwarzamy i analizujemy treści w dużych kolekcjach dokumentów (publikacji naukowych). Cześć prac związanych z Hadoop'em już ruszyła, ale wciąż mamy kilka otwartych kwestii. Projekt jest o tyle ciekawy, że zawiera duży i ambitny zestaw alogrytmów do zaimplementowania i będziemy w nim wykorzystywać wiele narzędzi z Hadoop'owego ekosystemu (np. Hadoop MapReduce, HBase, Hive/Pig, może Mahout) lub z nim powiązanych (np. Giraph).
2) Korzystając z okazji:
Zachęcam do dzielenia się informacjami na temat swojej przygody z Hadoopem na wątku "Poznajmy się" na forum grupy WHUG (Warsaw Hadoop User Group) ->
http://bit.ly/GBYE4r.
Może Darek napiszesz czy czymś związanym z Hadoop'em zajmowałeś się w AOL w Dublinie? Bo mam wrażenie, ze AOL wykorzystuje Hadoop'a.
A czy szkolenia Cloudery w Polsce będą tez z HBase, czy tylko Developer/Administrator of Hadoop?
Pozdrawiam,
Adam
Adam Kawa edytował(a) ten post dnia 21.03.12 o godzinie 11:32