Dariusz Marcinek

Dariusz Marcinek Architekt IT, Atos
Polska S.A.

Temat: Hadoop w Polsce

Czy wykorzystujecie Hadoopa (MapReduce/HDFS) lub też jakieś inne projekty z hadoopowego ekosystemu przy swoich projektach?

Jakie problemy rozwiązujecie tymi narzędziami?
Marcin Piechota

Marcin Piechota Big Data passionate

Temat: Hadoop w Polsce

W tej chwili próbujemy HBase.
Analiza danych pochodzących z sekwencjonowania DNA/RNA.

Szkoda, że Cloudera tak rzadko w Europie daje szkolenia.
Adam Ostapiński

Adam Ostapiński Marketing: szukam
ciekawych zleceń

Temat: Hadoop w Polsce

Marcin Piechota:
Szkoda, że Cloudera tak rzadko w Europie daje szkolenia.

Temat odgrzewany..ale szkoleń Cloudery w PL jeszcze nie było, a będą:)

http://www.compendium.pl/szkolenia/cloudera - oficjalne informacje opublikujemy prawdopodobnie jeszcze w tym tygodniu.
Adam Kawa

Adam Kawa Big Data Developer

Temat: Hadoop w Polsce

Witam serdecznie,

1) W opowiedzi na pytania Dariusza Marcinka:

Hadoop'em zajmuje się już od jakiegoś czasu. Najpierw w Netezza/IBM, gdzie pracowałem nad projektem IBM Netezza Engine for Hadoop, który jest implementacją paradygmatu MapReduce działającą na rozproszonych bazach danych Netezza. O projekcie można dowiedzieć się nieco więcej tutaj: http://slidesha.re/GE95Yz (slajdy 21-24).

Od połowy marca pracuję w ICM UW, gdzie przetwarzamy i analizujemy treści w dużych kolekcjach dokumentów (publikacji naukowych). Cześć prac związanych z Hadoop'em już ruszyła, ale wciąż mamy kilka otwartych kwestii. Projekt jest o tyle ciekawy, że zawiera duży i ambitny zestaw alogrytmów do zaimplementowania i będziemy w nim wykorzystywać wiele narzędzi z Hadoop'owego ekosystemu (np. Hadoop MapReduce, HBase, Hive/Pig, może Mahout) lub z nim powiązanych (np. Giraph).

2) Korzystając z okazji:

Zachęcam do dzielenia się informacjami na temat swojej przygody z Hadoopem na wątku "Poznajmy się" na forum grupy WHUG (Warsaw Hadoop User Group) -> http://bit.ly/GBYE4r.

Może Darek napiszesz czy czymś związanym z Hadoop'em zajmowałeś się w AOL w Dublinie? Bo mam wrażenie, ze AOL wykorzystuje Hadoop'a.

A czy szkolenia Cloudery w Polsce będą tez z HBase, czy tylko Developer/Administrator of Hadoop?

Pozdrawiam,
AdamAdam Kawa edytował(a) ten post dnia 21.03.12 o godzinie 11:32
Adam Ostapiński

Adam Ostapiński Marketing: szukam
ciekawych zleceń

Temat: Hadoop w Polsce

Adam Kawa:
A czy szkolenia Cloudery w Polsce będą tez z HBase, czy tylko Developer/Administrator of Hadoop?

W ofercie obecnie mamy już wszystkie kursy Cloudery.
Wśród nich znajduje się także:
"Cloudera Training for Apache HBase"

2-dniowy kurs dla osób, które znają już podstawy Apache Hadoop. W zakresie tematyki pojawia się projektowanie schematów HBase, pisanie aplikacji, konfigurowanie i obsługa.
Adam Kawa

Adam Kawa Big Data Developer

Temat: Hadoop w Polsce

O ile w 2011 i 2012 nie działo się zbyt dużo w kontekście Hadoop-a w Polsce, o tyle dzisiaj całkiem liczne grono organizacji może pochwalić się użyciem narzędzi z ekosystemu Hadoop-a i okolic do rozwiązania swoich biznesowych problemów. O bieżącym wykorzystaniu Hadoop-a w Polsce (i nie tylko) można się dowiedzieć “od ręki” m.in. najbliższej najbliższej technicznej konferencji BigDataTech* pod koniec lutego 2015 http://bigdatatech.pl lub na regularnych spotkaniach WHUG w Warszawie http://whug.org, czy DataKRK w Krakowie http://www.meetup.com/datakrk.

Jeżeli chodzi o szkolenia, to tutaj pojawiła się alternatywa w postaci szkoleń GetInData* http://getindata.com/trainings. Zachęcam do kontaktu!

*Disclaimer: jestem współzałożycielem GetInData, a GetInData jest współorganizatorem konferencji BigDataTech.Ten post został edytowany przez Autora dnia 17.01.15 o godzinie 22:40

konto usunięte

Temat: Hadoop w Polsce


Obrazek

Zapraszam zainteresowanych tematem Hadoopa do zapoznania się z programem szkolenia z projektowania rozwiązań BigData z wykorzystaniem Apache Hadoop & Family

Podczas 5-dniowego kursu uczestnicy szkolenia zdobędą przekrojową wiedzę dotyczącą takich pojęć jak algorytm MapReduce, poznają założenia BigData, BigTable, rozproszone systemy plikowe DFS, bazy danych typu NoSQL. Dzięki temu będą mogli wybrać właściwy zestaw narzędzi i technik dla swoich projektów. Szkolenie, poza ogólnym wprowadzeniem do pojęć teoretycznych, skupia się na stosie produktowym wybudowanym wokół Apache Hadoop.

Cena: 3550 PLN netto za osobę

Pozdrawiam,

Agata Kuźma
Specjalista ds. szkoleń
a.kuzma@sages.com.pl
http://www.sages.com.pl

Następna dyskusja:

Warsztaty Big Data/Hortonwo...




Wyślij zaproszenie do