Wywołałem wilka z lasu….BIG DATA i AI nie są dla wszystkich!

Jeden wpis i dwa (a nawet trzy !), jakże wartościowe komentarze. Tomasz Szymanski oraz Małgorzata Jedrasik odnieśli się do mojego wczorajszego artykułu pozostawiając swoje komentarze. Pozwolę sobie przytoczyć je poniżej, aby Ci, którym one umknęły na LinkedIn, mogli się z nimi zapoznać.

Tomasz Szymanski

Może tu wyjdę na malkontenta ale praktyka w zakresie IT pokazuje, iż brak podstaw niestety mści się okrutnie na bardziej zaawansowanych etapach. Naprawdę dziwi mnie, że ktoś chce opierać swoje decyzje o wciąż mgliste „big data” a nie na swoich danych. To jest nieco szokujące. Nie oszukując się dzisiejsze BI to nieco wcześniejsze „systemu wspomagania zarządzania”. I co co widzę praktycznie w każdej firmie na tzw. zachodzie, to że ludzie nie opierają się na systemach IT i ich raportach tylko wciąż dłubią w arkuszu i co autor to nowy arkusz i nowe pomysły. Nie ma innej opcji niż bazowanie na tradycyjnych danych a dopiero bazując na nich można odnosić się do innych danych (np. tych z mediów społecznościowych). Jako informację optymistyczną powiem, iż zdecydowanie jesteśmy lepsi w systemach IT niż tzw. „specjaliści” w miejscu w którym jestem. Oni mają genetyczne ograniczenia. Więc tak trzymać – będzie dobrze. A to że chwilowo jest dziwny sposób myślenia o BI, to ja bym tym się nie przejmował. Ekonomia przemówi jeżeli nie uda się uzyskać oczekiwanych efektów. Także panowie przetrzymajcie – firmy wrócą – do rozwiązań sprawdzonych.

Małgorzata Jedrasik:

Temat integralności, spójności, poprawnych mapowań jest ignorowany przy wdrożeniach IT nawet przez renomowane firmy konsultingowe IT. Taka prawda. I taki stan kiepskich danych po wdrożeniu pozostaje nietknięty przez lata. Menadżerowie biznesowi, finansowi nie mają świadomości w tym zakresie, nie wiedzą jakiej jakości dane są ładowane, czy przetwarzane w ich firmie. Wiadomym, bynajmniej także dla mnie jest fakt, że raporty wygenerowane na podstawie tak wątpliwych danych mogą być/są powodem ogromnych strat finansowych. Notabene robiłam naście lat temu projekt OLTP=> OLAP na studiach podyplomowych SPISZ SGH wykorzystując narzędzia Microsoftu 😉 i duży nacisk w tej mojej pracy był przeze mnie położony właśnie na na jakość danych: checkupy, triggery, procedury uzupełniające dane według określonego algorytmu itp. Temat jakości danych jest dla mnie kluczowy. Pierwszą rzeczą jaką robiłam w nowym projekcie była weryfikacja jakości danych w bazie danych. Firmy posiadają ogromną ilość wartości nullowych w danych newralgicznych dla działalności firmy, dane nie są w ogóle zintegrowane, brak poprawnej budowy bazy danych: redundancja itp. BI, Artificial Intelligence czy Big Data w takich firmach przyniosą ten sam końcowy rezultat.

W tym miejscu przychodzi mi na myśl jeszcze jeden bardzo trafne i pasujące w tym miejscu spostrzeżenie jednego z moich kolegów, których zdanie bardzo cenię – pozdrawiam Mirek!

I nie trzeba dodawać nic więcej….

BIG DATA żyje, a epoka AI i tak nadejdzie

Oczywiście nasze komentarze i spostrzeżenia nie zatrzymają toczącej się „kuli”, która od jakiegoś czasu coraz bardziej rozpędzona niesie ze sobą upowszechnienie rozwiązań sięgających do coraz to nowych pokładów danych, pochodzących z przeróżnych, często niezbyt dobrze rozpoznanych źródeł. Pewnie nawet nie warto takiej próby podejmować, bo to właśnie te dane stanowią olbrzymia wartość. To na co należy zwracać szczególną uwagę, że nie można zbyt szybko przeskoczyć na poziom bardzo zaawansowanych i złożonych rozwiązań. Jak już wspomniałem na LinkedIn – warto opanować level podstawowy,następnie średniozaawansowany, aby dojść do ZAAWANSOWANYCH rozwiązań…..