Tag Archive : Gartner

 

Niedawno przeczytałem, że:

“Chmura obliczeniowa szturmem zdobywa rynek IT. Liczba wdrożeń oprogramowania w modelu SaaS rośnie w tempie 20,1 proc. rdr ? podają analitycy z firmy Gartner. Na naszych oczach odbywa się rewolucja, której największą ofiarą jest oprogramowanie instalowane na własnej, firmowej infrastrukturze. Agonię wdrożeń ?on-premises? wieści Eric Kimberling, partner zarządzający w firmie doradczej Panorama Consulting. Jego zdaniem chmura obliczeniowa posiada tak wiele zalet, że porzucenie przez przedsiębiorstwa rozwiązań stacjonarnych jest jedynie kwestią czasu.”

Źródło: Chmura wykończy wdrożenia ?on-premises?. Ich śmierć ma być powolna, ale definitywna ? Fintek.pl

Po pierwsze: to, że dzisiaj rośnie 20,1% rdr nie znaczy (ehh, ta wiara w trendy..), że tak będzie zawsze. Po drugie, nie tylko z uwagi na prawa autorskie i ochronę know-how, zawsze będzie klasa systemów, które w chmurze nigdy nie wylądują. Ten artykuł w moich oczach, to klasyka PR-owców tworząca sztuczną rzeczywistość w mediach i tak zwane “samospełniające się przepowiednie”, bazujące w 100% na konformizmie czytelników takich prognoz.

Swego czasu, 2016 rok, miałem referat na konferencji dotyczącej architektury w chmurze. Kilka tez, które pomogą ocenić wróżby upadku wdrożeń “u siebie”.

Każdy projekt wdrożeniowe ma dwa kluczowe, oczywiste, parametry: czas wdrożenia i łączny koszt (pozyskanie i posiadanie – utrzymanie). Jednak w dobie zmienności rynku jaką mamy obecnie, warto brać pod uwagę także ryzyko tego, że zmienimy decyzję bo zmieniły się warunki. Dlatego pojawia się parametr jakim jest czas wyjścia z inwestycji, co staje się coraz ważniejszym parametrem, z uwagi na ryzyko takich wdrożeń i ryzyko wynikające ze zmienności rynku.

Co wiemy o wdrożeniach?

Pomijając, detaliczne kwoty, własna instalacja jest najtańsza w utrzymaniu jednak trzeba ponieść relatywnie duże koszty pozyskania i wdrożenia. Na przeciwnym końcu jest typowa instalacja w tak zwanej chmurze, która nie wymaga praktycznie żadnego okresu “rozruchu”. Po środku jest outsourcing, który ma niższe koszty inicjacji w porównaniu z instalacją na właność, ale wyższe koszty utrzymania (marża na zasoby ludzkie).

Na tym tle mamy typowe, dla obecnego rynku, wymagania biznesowe:

Nazwałem je “implikujące zastosowanie chmury”, bo jak widać są to dość typowe wymagania w dobie szybkiej zmienności otoczenia rynkowego. Jednak jest pewien haczyk: wszystko w chmurze to najkosztowniejsza w utrzymaniu wersja. Dlatego firmy, po ustaleniu tego co jest taktyką a co strategią, powinny rozważyć decyzję: odpowiednio co powinno dać się szybko zmienić, a co będzie jednak stałym zasobem. Zasoby uznane za stałe bezpiecznie (jako inwestycje) można pozyskać na własność co w dłuższej perspektywie daje odczuwalne oszczędności. Tam gdzie ryzyko zmiany jest zbyt duże, ponosimy wyższe koszty chmury ale rekompensujemy sobie to tym, że koszty wyjścia z takiej inwestycji są bliskie zera.

 

Na zakończenie kilka słów o architekturze. Warto pamiętać, że – pomijając proporcje – każda firma ma oprogramowanie u siebie i może mieć w chmurze, w efekcie ich integracja zawsze wymaga, by podejmowanie decyzji o korzystaniu z chmury, było w pełni świadome. Każda decyzja architektoniczna na swoje konsekwencje.

Dlatego, moim zdaniem, nie grozi nam jednak nigdy całkowita rezygnacja z oprogramowania na własność.

Jakiś czas temu znalazłem taką oto statystykę:

Pod koniec 2012 roku firma analityczna Gartner przeprowadziła ogólnoświatowe badania wśród 333 osób piastujących funkcje prezesa, prezydenta lub dyrektora generalnego.

Gartner chart priorytety zarządzającej kadry 2013

 

Zdaniem analityków Gartnera jest to możliwe jedynie poprzez skoncentrowanie się na kliencie ? czyli należy zainicjować działania (nie tylko informatyczne, lecz przede wszystkim organizacyjne) w organizacji określone pozwalające stać się jej ?customer centric?. (Czym jest ?Customer Centric Enterprise Architecture?? | Architektura Korporacyjna).

A teraz zostawmy Gartnera i zastanówmy się nad powyższą ankietą. Załóżmy, że model motywacji biznesowej można uznać za dobrze tłumaczący związki pomiędzy celami firmy a strategią:

BMMOvierwiev

 

Patrząc na powyższe można przyjąć, że działania operacyjne na pewno mają wpływ na skuteczność działań z zakresu wzrostu jakości i skuteczności w obsłudze klientów. Patrząc zaś na wyniki ankiet można uznać, że priorytetem jest wzrost, a wzrost firmy to głównie wzrost przychodów. Jeżeli uznać, że ankietowani nie mieli na myśli kosmetycznych wzrostów a rynek jest nasycony, to moim zdaniem, “duży wzrost” jest możliwy głównie poprzez przejęcia. Strategia przejęć niewiele ma jednak wspólnego z wewnętrzną sprawnością operacyjną.

Tak więc osobiście nie widzę bezpośredniego związku pomiędzy architekturą korporacyjną (której wdrażanie jest raczej taktyką osiągania większej sprawności operacyjnej) a strategią (znacznego) wzrostu… ale może to temat do ciekawej dyskusji…

 

Na “szczęście dla architektury korporacyjnej” pozostałe priorytety:  dochodowość, klient, koszty, marketing i sprzedaż, to jak najbardziej elementy zależne od sprawności operacyjnej a tu budujemy taktyki osiągania celów strategicznych. Architektura Korporacyjna, to jest, jej budowa i wdrażanie, to jedna z możliwych taktyk. Jaka strategie wspiera? W przypadku taktyki obniżania kosztów w obszarze wdrażania nowych rozwiązań i zarządzania ich zmianą, AK jak najbardziej wpisuje się tę taktykę. Ograniczając się do systemów informacyjnych, obecny rynek jest zmienny  i zmieniają się taktyki sprzedaży firm, zarządzania produktami. Zmiana tej taktyki prawie zawsze niesie za sobą potrzebę wprowadzenia zmian do systemu informacyjnego firmy. Każdorazowe prowadzenie kolejnej nowej “analizy przed-wdrożeniowej” to tak na prawdę marnotrawione środki, bo kolejna nowa analiza wymagań w sytuacji gdy wprowadzamy jedynie zmianę, to troszkę jak zamawianie nowego projektu architektonicznego tylko po to, by przestawić kilka ścian i wstawić nową w domu, który już stał i pozostanie.

Proszę zauważyć, że praktycznie każda analiza przed-wdrożeniowa ma w swoim zakresie “analizę stanu obecnego”. Czy na prawdą każdy kolejny dostawca musi to robić od zera? Nie sądzę.  W zasadzie “stan obecny” powinien być dokumentem “na tacy” po stronie zamawiającego nowe oprogramowanie. Ale utrzymywanie takiej dokumentacji kosztuje! Owszem, ale kosztuje znacznie mniej niż każdorazowe jej wytwarzanie od zera…

Nagromadzenie danych to jeszcze nie jest nauka (Galileusz)

Duże bazy danych na określony temat – najczęściej mowa o zachowaniach klientów ? to ostatnio temat pierwszych, najdalej drugich, stron gazet. BigData to temat przewodni konferencji i artykułów na pierwszych stronach periodyków branży IT. W 2011 roku artykuł na podobny temat kończyłem pytając:

Budowanie modeli na bazie małych partii danych jest po pierwsze wiarygodniejsze (paradoksalnie) niż proste wnioskowanie statystyczne, po drugie daje szanse odkrycia czegoś nowego. W czym problem? To drugie jest nie możliwe z pomocą deterministycznej maszyny jaką jest komputer. To wymaga człowieka, ten jednak nie daje się produkować masowo? ;), korporacja na nim nie zarobi.

Hm? czy przypadkiem promowanie systemów hurtowni danych, BI, pracy z terabajtami danych itp.. to nie tworzenie sobie rynku przez dostawców tych technologii? (Ujarzmić dane – ale po co ich aż tyle?). Ale po kolei. Jednak problem nadal jest. Redakcja COMPUTERWORLD tak zachęca do udziału w swojej konferencji z BigData w tytule (fragment):

Big Data nie jest tylko kolejnym hasłem marketingowym dostawców IT. To antycypacja zjawiska przekroczenia masy krytycznej wielkości, różnorodności, liczby i dynamiki źródeł gromadzonych w przedsiębiorstwie danych. Gdy mamy ich naprawdę dużo, gdy pochodzą one z wielu różnych miejsc, gdy są stale aktualizowane i ciągle ich przybywa, wtedy możliwości analityczne i potencjał wykorzystania wiedzy zgromadzonej w tych danych rośnie wykładniczo. Ale wymaga to całkiem nowych platform technologicznych i zestawów kompetencji.

Wniosek jaki wysnuto: potrzebna nowa, ?lepsza? technologia. Czy aby na pewno? Jeżeli jednak BigData ma nie być kolejnym hasłem marketingowym to znaczy, że nie jest najlepszym rozwiązaniem kupienie kolejnego jeszcze większego i jeszcze szybszego ?sprzętu?. Moim zdaniem w dalszej części zaproszenia zwrócono uwagę na kierunek dający większe szanse powodzenia:

Liczba danych gromadzonych w biznesie przyrasta rocznie o 50 procent. Więcej jednak wcale nie znaczy lepiej – by hasło Big Data przełożyło się na Big Business potrzeba nowych umiejętności, odpowiednich narzędzi i odpowiedniej strategii zarządzania informacją. (źr. Zaproszenie na konferencję BigData COMPUTERWORLD luty 2013)

Pada hasło strategia, na którym postaram się skupić w dalszej części. Wcześniej jednak zdefiniujmy pojęcie BigData by wiadomo było o czym tu będę traktował:

W 2001 roku META Group (obecnie Gartner) opublikowała raport, który opisuje big data w modelu 3V. Wskazuje on na dużą ilość danych (Volume), dużą zmienność danych (Velocity) oraz dużą różnorodność danych (Variety). W 2012 roku Gartner uzupełnił podaną wcześniej definicję wskazując, iż ?big data to zbiory informacji o dużej objętości, dużej zmienności i/lub dużej różnorodności, które wymagają nowych form przetwarzania w celu wspomagania podejmowania decyzji, odkrywania nowych zjawisk oraz optymalizacji procesów?. (źr. BigData WIKI)

Tak wiec mamy definicję: big data to zbiory informacji o dużej objętości, dużej zmienności i/lub dużej różnorodności. Resztę pominąłem zdania pominąłem, gdyż to czego BigData wymaga nie jest przedmiotem definicji pojęcia.

Na czym polega problem biznesowy? Generalnie ludzie (o heurystykach już pisałem)  stosują metody indukcyjne jako narzędzie wyciągania wniosków. Indukcja to w naukach empirycznych metoda polegająca na wprowadzeniu uogólnień na podstawie eksperymentów i obserwacji faktów, formułowaniu i weryfikacji hipotez. Zaczątki indukcji w sensie nowożytnym stworzył F. Bacon, który uznał, że indukcja i eksperyment to dwie skuteczne metody ustalania prawdy. Słowo klucz tu to ?fakty?. Z indukcją mają do czynienia wszyscy, którzy korzystają z analizy trendów (np. analiza techniczna w przypadku analizy kursów walut czy akcji).

Problem z indukcją, jako metodą, polega na tym, że w zasadzie sprowadza się do próby oceny tego, z jakim prawdopodobieństwem powtórzy się historia badanego zjawiska. Metoda ta nie prowadzi do nowych odkryć, prowadzi do modeli opisujących prawdopodobieństwo powtórzenia się faktów, o których mamy wiedzę, że wystąpiły.

Firmy, w miarę rozwoju technologii i rozbudowy swoich procesów biznesowych, gromadzą coraz większe ilości danych o znanych im faktach ze swojej historii. Rejestrowane są coraz dokładniej i ?gęściej? w czasie, wszelkie zdarzenia na firmowych stronach WWW, wszelka wiedza o zdarzeniach w prowadzonej działalności. Firmy popycha do tego wiara w to, że im więcej danych tym lepsze wnioski. Praktyka jednak pokazuje, że rosnąca dokładność ?próbkowania? np. zachowań klientów nie prowadzi do proporcjonalnego wzrostu zamówień. Owszem, poznając te zachowania można lepiej zaadresować ofertę, to prawda ale nie jest to zależność liniowa.

Do 2015 roku ponad 85 proc. firm sklasyfikowanych w rankingu Fortune 500 nie będzie potrafiło efektywnie wykorzystać posiadanych zbiorów danych, bowiem wystąpi efekt tzw. big data. Co więc z tymi danymi robić? Ignorować je troszkę. Jeżeli prawdą jest, że dziś, w ciągu zaledwie dwóch dni produkujemy tyle danych, ile ludzkość wytworzyła od zarania dziejów do roku 2003, to porównując to z postępem dokonanym w ciągu ostatniej dekady z postępem ostatnich dwóch tysięcy lat, wniosek nasuwa się jeden: raczej nie ilość danych decyduje o wiedzy i postępie. Więc co?

W opozycji do indukcji jako metody poznania (epistemologia) stoi dedukcja. Dedukcja to rozumowanie polegające na wyprowadzaniu z przesłanek (zdań) uznanych za prawdziwe na podstawie faktów, następstwa będącego logicznym i prawdziwym wnioskiem. Innymi słowy, dedukcja polega postawieniu hipotezy na podstawie pewnej ograniczonej liczby danych (faktów), udowodnieniu jej słuszności (poprzez brak faktów przeczących tej tezie – nieudana falsyfikacja) i wyciąganiu wniosków o przyszłości. Jak dowodzi się takiej hipotezy? Testuje się  sprawdzając, czy poprawnie opisuje znany z historii fakty. Innymi słowy: jeżeli nie odkryto faktów obalających tezę (pokazujących, że jest nieprawdziwa) uznaje się ją za poprawną.

Typowym przykładem indukcji jest prognozowanie pogody na bazie znanych z historii faktów: prognoza była uznaniem, że powtórzy się określona sytuacja zaobserwowana w przeszłości (np. nisko latające jaskółki zapowiadają deszcze). Obecne prognozy to dedukcja: na bazie określonej partii danych opracowano tezę: model fizyczny atmosfery i zjawisk w niej zachodzących. Model ten, po podaniu danych o stanie obecnym atmosfery, pozwala na wnioskowanie (wyliczenie) jego stanu na dzień lub tydzień następny (tu krótko i średnioterminowa prognoza). Co ciekawe, ta metoda (dedukcja) pozwala na przewidywanie faktów, które nie zaszły w przeszłości (z prawdopodobieństwem wynikającym z jakości użytego modelu i kosztu obliczeń).

Dedukcję jako metodę poznania (metoda dowodzenia poprzez stawianie hipotez i ich falsyfikację) opisał Karl Popper. Nosi ona obecnie nazwę ?metody naukowej?.

Jak to się ma do naszego BigData? Moim zdaniem BigData to ślepa uliczka. Rosnące nakłady na sprzęt i oprogramowanie zmniejszają jedynie błąd statystyczny obliczeń nie wnosząc nic do ich jakości w rozumieniu ?jakości prognozowania?. Co do ?odkrywania? czegokolwiek nie ma mowy, udowodniono, że metodami indukcyjnymi nie da się niczego nowego odkryć, można co najwyżej udokumentować trend. Owszem, pozostaje kwestia analizy korelacyjnej, czyli wykrywania związków pomiędzy faktami (np. czy pora dnia wpływa na decyzje zakupowe). Tego typu analizy nie są niczym nowym, są znane wśród specjalistów z zakresu Business Inteligence od dawna.

Tak więc kluczową strategią wydaje się tu być tak zwany program retencyjny, czyli strategia wyboru danych do przechowywania (i usuwanie pozostałych), bo nie da się “zapamiętać? wszystkiego. Jednym z ?modnych? elementów strategii sprzedażowych są tak zwane programy partnerskie. Maciej Tesławski (ekspert z zakresu marketingu) na swoim blogu pisze:

Programy retencyjne mogą być B2B, B2C i multipartnerskie, lojalnościowe mogą być tylko B2C bo w biznesie decyzje zakupowe podejmuje się w znacznym stopniu racjonalnie a nie emocjonalnie. Jeśli chodzi o ocenę działających programów retencyjnych, to podstawowy błąd jaki widzę to niewykorzystywanie bazy informacji o uczestnikach programu przez firmy. To jest potężny zbiór informacji o zachowaniach poszczególnych konsumentów, w połączeniu z danymi demograficznymi pozwala na ?poznanie? profilu najbardziej wartościowych konsumentów. Nie zauważyłem aby ktokolwiek to wykorzystywał. Dzieje się tak zapewne dlatego, że bazy danych rosną w postępie geometrycznym i przerastają możliwości ich bieżącego wykorzystywania.

Skoro tak, to wiemy co ? pozostaje jak. Jak zauważono na początku, przyrastająca ilość danych, a raczej korzystanie z nich, wymaga całkiem nowych platform technologicznych i zestawów kompetencji. Platformy technologiczne są, postęp techniczny nam je zapewnia. Wydaje się, że  kluczem jest ?nowy zestaw kompetencji?.

Moim zdaniem dużymi krokami nadchodzi  czas, gdy z analizy statystycznej należy się przerzucić na analizę systemową ? dedukcję, oraz odpowiednie strategie retencji danych. W niedawnej przeszłości stwierdzono, że rosnąca ilość danych i dalsze uszczegółowianie danych o zmianach temperatury, ciśnienia, wielkości opadów nie poprawiają jakości prognoz pogody. Zmieniono podejście i jak widać udało się, prognozy pogody nigdy nie były tak dokładne jak w ostatniej dekadzie a nie jest to efekt BigData.

Od technologii teraz nie oczekiwał bym ogromnych pojemności a mocy obliczeniowej, tu widzę drogę do sukcesu: analiza ograniczonej ilości faktów, budowanie modeli zachowań np. konsumentów, prognozowanie tych zachować. Myślę też, że pewnego progu jakości prognoz nie przekroczymy. Filozofia dowodzi, że nie da się stworzyć w świecie realnym demiurga (w filozofii Platona określano tak budowniczego świata nadającego kształty wiecznej, bezkształtnej materii według wzorców, jakie stanowią doskonałe idee; w filozofii nowożytnej demon potrafiący obliczyć przyszły stan świata na podstawie wiedzy o wszystkich atomach i prawach nimi rządzących). Praktyka pokazuje, że nie istnieje i długo nie powstanie taka moc obliczeniowa by choć troszkę się do demiurga zbliżyć.

A czym jest ta analiza systemowa i modelowanie? Wyobraźmy sobie kogoś, kto chce przewidywać zachowania kul podczas gry w snookera. Problem ten może zostać opisany faktami opisującymi grę powierzchownie: ?Gracz uderza białą kulę, która przemieszcza się z pewną prędkością, ta po określonym czasie uderza czerwoną kulę pod określonym kątem, uderzona czerwona kula przemieszcza się na pewną odległość w pewnym kierunku.? Można sfilmować setki tysięcy takich uderzeń, zarejestrować z dowolna dokładnością parametry każdego uderzenia i jego skutki. Jednak tą metodą i tak nie stworzymy nawet dość dobrej symulacji. Aby stworzyć na prawdę dobrą symulację, należy zrozumieć prawa rządzące ruchem kul, ich zależność od siły i kierunku uderzenia, kierunku itp. Zrozumienie tych praw pozwoli znacznie łatwiej przewidzieć skutek każdego uderzenia.? (na podstawie Analysis Patterns. Reusable Object Models, Martin Fowler, Addison-Wesley, 1997).

P.S.

W ramach uzupełnienia dyskusji o indukcji zamieszczam cytat z Karla Poppera, jedna z wielu obecnych opinii o indukcji jako metodzie:

indukcja, trendy, wnioskowanie, popper, hume

Polecam teą artykuły wcześnijesze:

Chwila spokoju w kolejny “najdłuższy weekend” więc jest czas na refleksje. Ja mam taki zwyczaj, że przeglądam od czasu do czasu prognozy z przed lat by porównać z dniem dzisiejszym czym z tym “co prognozowano”.  Popatrzmy tu, w roku 2003 napisałem, że:

Nadwieszą wartość ma sama aplikacja a tak na prawdę funkcjonalność jaką oferuję.

(Zarządzanie IT w czasach nowych wyzwań rynkowych).

Powyższy diagram to prognozy nakładów na poszczególne elementy systemów IT. Powyższe badania były publikowane w 2003 roku. Rok 2010, Gartner publikuje wyniki ankiet (dane faktyczne za 2010):

  • sprzęt komputerowy – 353 mld USD (25%),
  • oprogramowanie – 232 mld USD(17%),
  • usługi IT – 821 mld USD (58%),

Tu należy się uwaga, że znaczny udział usług to obecnie usługi związane z tworzeniem oprogramowania tak zwanego dedykowanego lub jego dostosowywania. Moim zdaniem można uznać prognozę IDC z 2003 roku za trafioną. Obserwując nie tylko przetargi proporcje te wydają się jak najbardziej trafne.

Warto zwrócić uwagę, że obecna złożoność oprogramowania wspomagającego biznes, praktycznie uniemożliwia skuteczne wdrożenie bez wsparcia. Czasy gdy kupujący “sam sobie coś zrobił” raczej bezpowrotnie minęły. To co obserwuję, to migracja znacznej części usług z obszaru technologicznego (główny problem to instalacja i uruchomienie) do obszaru biznesowego (główny problem to zmiana organizacji jaką powoduje wdrożenie nowych narzędzi IT).

Na tym etapie pojawia się potrzeba  poprzedzenia instalacji oprogramowania (wybór, zakup i wdrożenie) analizą i prognozowaniem (predykcją, przewidywaniem) skutków tego wdrożenia. Bardzo istotne jest, nie to czy produkt “zadziała” a to do czego planujemy go użyć i czy się sprawdzi. Na nadcjodzący okres IDC przewisuje, że:

Motorem rozwoju jest wymiana przestarzałych i skomplikowanych systemów informatycznych w polskich przedsiębiorstwach. Według Jarosława Smulskiego, analityka IDC, usługi i oprogramowanie w Polsce będą coraz bardziej dochodowe. Na świecie segmenty te oraz sprzęt mają mniej więcej po jednej trzeciej udziału w sprzedaży, w tym kierunku będzie zmierzał i polski rynek. IDC jednocześnie wskazuje czynnik ryzyka, który może przeszkodzić w realizacji prognozowanego scenariusza. Są nim ostrożne wydatki inwestycyjne firm, związane z możliwą kolejną falą kryzysu. (za  Artykuły ? Raporty i analizy: IDC: 2011 r. na rynku IT ? CRN).

Patrząc na projekty, które znam lub w których brałem udział teza wydaje się być wiarygodna. Osobiście mam inne wątpliwości: jakość tych projektów nie raz daleko odbiega od oczekiwań nabywców… niejednokrotnie dostaje listy o treści zbliżonej do (fragment autentycznego listu inicjującego jeden z moich projektów):

Niestety mimo najwyższej staranności i zaangażowania z naszej strony jeden z GoldPartnerów i jednocześnie laureat nagrody partnera roku firmy Microsoft zdołał “modelowo położyć na łopatki” nasz projekt. W związku z tym pewnie będę miał przyjemność popracować z Panem. Jak się domyślam, prawdopodobnie w ten właśnie sposób trafia do Pana większość klientów.

Niestety tak właśnie jest, są to skutki łączenia roli analityka, projektanta i wykonawcy…

Jakiś czas temu pisałem o swoich przemyśleniach po rozmowie z pewnym dyrektorem finansowym jednego z moich klientów. Powiedział między innymi, że albo projekt zostanie zrealizowany w roku jednym budżetowym, albo on nie wyda na zgody na jego rozpoczęcie. W czym problem? Ano w tym, że przy obecnym tempie zmian na rynku, prognoza wykraczająca w przyszłość dalej niż rok to wróżenie z fusów… Skutek? Jak ocenić stopę zwrotu z inwestycji w coś, co jest najbardziej płynnym, podatnym na zmiany wymagań, zasobem w organizacji, czyli system wspomagający zarządzanie nią?

Rynek stale się rozwija i dojrzewa. Praktycznie każda większa firma doświadczyła w jakiejś formie wdrożenia gotowego, dostosowywanego do potrzeb, oprogramowania ERP. Warto jednak podkreślić, że idea jednego ?super systemu? ERP II, odchodzi powoli do lamusa. Moim zdaniem to kwestia roku, dwóch. Pierwsze symptomy to zalecenia producentów dużych systemów: wdrażać gotowe oprogramowanie w postaci ?gotowej? tylko tam gdzie pasuje, obszary specyficzne dla firmy opisać i zaprojektować dla nich dedykowane rozwiązanie i zintegrować. (czytaj  Biznes wychodzi z objęć systemu ? monolitycznego ERP).

Co z tym zrobić? Dzielić, jak to mawiają niektórzy kierownicy projektów: człowiek może zjeść nawet słonia, jak? Kęs po kęsie. Tak więc duży projekt należy podzielić na “samodzielne” podsystemy, jednak ta samodzielność ma dwa aspekty: każdy podsystem musi sam z siebie do czegoś służyć, powinien wnosić wartość dodaną. Drugi: każdy projektowany podsystem powinien być zaplanowany jako potencjalnie samodzielne narzędzie (inwestycja) na wypadek gdyby pozostałe nie zostały nigdy wytworzone np. z powodu zmian na rynku.

Ale o tym pisałem więcej już wcześniej. Kolejnym problemem jest niestety jakość projektowania:

Według firmy analitycznej Gartner około 60 proc. wdrożeń wielkich systemów informatycznych kończy się klęską. Przyczyną jest m.in. nieumiejętność przełożenia procesów działających w firmie na działanie systemu informatycznego, brak dostatecznego wsparcia ze strony pracowników i kierownictwa firmy (czasem nawet jawny opór), złe przygotowanie wdrożenia lub jego prowadzenie. (za Serwis Nauka w Polsce – PAP SA).

Jak widać, jakość projektowania jest kluczem, zresztą nie tylko w przypadków dużych systemów ale w każdym przypadku. Różnica jest taka, że jeżeli niejedna firma świadomie ryzykuje kilkaset tysięcy rezygnując z etapu niezależnej analizy i projektowania wartej ok. 10-20% tej kwoty, to podobne podejście projekty warte milionów  jest już raczej nieracjonalne…

Po raz kolejny już sprawdza się teza, że wdrażanie jednego wielkiego ERP integrującego “wszystko” jest mrzonką… praktyka pokazuje, że kilka systemów dziedzinowych, zintegrowanych ze sobą jest po pierwsze mniej ryzykowne a po drugie, paradoksalnie, tańsze.

Tak więc: jak dostawca dużego ERP mówi, że duży ERP jest najlepszy to należy to traktować tak samo jak ofertę dostawcy dużego zestawu garnków ze stali nierdzewnej, z których i tak na co dzień używamy jednego a naleśniki i tak robimy z pomocą kupionej wcześniej dobrej teflonowej patelni bo do naleśników lepsza a zamiana jej na nową z nierdzewki tylko dlatego, że ?z kompletu? przeczy zdrowemu rozsądkowi i używa się jej mimo, że pokrywka z zestawu lekko wystaje ? ale przykrywa bo taki jest jej główny cel (w zasadzie tylko nie powinna być mniejsza ani zbyt duża). (Nigdy więcej ERP w jednym kawałku!).

Raport z Badania polskich projektów informatycznych 2010

Na stronie PMResearch.pl pojawiło się ciekawe badanie  Raport zawiera rezultaty analizy 80 starannie wyselekcjonowanych projektów IT. Wyniki prezentuje w zwięzły, syntetyczny sposób. Pobierz raport (za Informacje o wynikach badania polskich projektów informatycznych).

Wyniki badania bardzo polecam, uczą pokory. Pytanie moje do autorów: jak zdefiniowano metodykę Agile? Pobieżna nawet “badanie” zasobów w Internecie pokazuje, że nie istnieje jedna definicja tego “podejścia”. Na stronie agilemanifesto.org czytamy:

Wytwarzając oprogramowanie i pomagając innym w tym zakresie,

odkrywamy lepsze sposoby wykonywania tej pracy.

W wyniku tych doświadczeń przedkładamy:

 Ludzi i interakcje ponad procesy i narzędzia.

Działające oprogramowanie ponad obszerną dokumentację.

Współpracę z klientem ponad formalne ustalenia.

Reagowanie na zmiany ponad podążanie za planem.

Doceniamy to, co wymieniono po prawej stronie,

jednak bardziej cenimy to, co po lewej.

Można by odnieść wrażenie, że ignorowane jest wszystko co nakazuje rozsądek (pogrubienie moje). Paradoksalnie, obserwując projekty, mam wrażenie, że zwinność jest jednak często inaczej rozumiana, nie jako ignorowanie “złotego trójkąta” projektowego (zakres, termin, budżet). Ja w każdym razie zawsze pytam: czym jest tu Agile. Niestety słyszę nie raz, ze “tego się nie definiuje”… co wywołuje u mnie odruch “nie definiuje się zakresu projektu” a to prowadzi do wniosku, że sukcesem jest sam fakt rozpoczęcia projektu…