Technologiczne trendy nie ominą mleczarstwa

Kilka dni temu zakończył się tegoroczny Techmilk. Śledząc jakie nowości były prezentowane przez firmy, można określić jakie są trendy technologiczne. Zresztą, jakie by nie były, to nie ominą firm. Mleczarnie nie są wyjątkiem.

Seminarium Techmilk skupia się w dużej mierze na inżynierii procesowej. Inżynieria procesowa jest bardzo ważna, ale trendy technologiczne są znacznie szersze. Jak wynika z analizy firmy TogetherData, firmy przemysłowe, w tym spożywcze, będą rozwijać się w obszarach takich jak optymalizacja, monetyzacja i analityka. Jednym z kluczowych trendów, który przyczyni się w 2019 roku do szerszej realizacji koncepcji Przemysłu 4.0 wśród polskich przedsiębiorstw, będzie zbieranie, agregacja i analiza dużych zbiorów danych. Natomiast standardem mającym na celu wsparcie procesów decyzyjnych, identyfikacji nieefektywności oraz maksymalizacji jakości produkcji będzie Data Science – jedna z gałęzi Big Data. Odpowiednie wdrożenie tych działań może poprawić wyniki poszczególnych działów nawet o 15% – przewidują analitycy z TogetherData.

Data Science to dziedzina analityki szerokich strumieni danych, którą zaczyna się określać mianem „nauki o danych”. Jest to proces pozyskiwania, analizowania, wizualizacji i wnioskowania z zarówno ustrukturyzowanych, jak i nieustrukturyzowanych danych, z użyciem m.in. takich technologii jak uczenie maszynowe i analiza predykcyjna. „Nauka o danych” w przeciwieństwie do Big Data, nie tylko agreguje i przetwarza dane, ale także tworzy całościowy model ich analizy, ukierunkowanej pod uzyskanie odpowiednich informacji i wniosków. W ciągu najbliższych dwóch lat zapotrzebowanie na wdrożenie systemów Data Science w Polsce wzrośnie nawet o 40%, wynika z szacunków firmy analitycznej TogetherData. Największy popyt będzie panował wśród firm z sektora produkcyjnego. – Big Data w przemyśle to jedynie prosta wizualizacja danych pozyskanych przykładowo z czujników monitorujących awarię na linii produkcyjnej. Natomiast Data Science, czyli „nauka o danych” wyznacza cele do osiągnięcia, determinuje rodzaj danych potrzebnych do analizy oraz dobór modelu statystycznego. – mówi Michał Grams, prezes zarządu TogetherData. W średniej wielkości zakładzie produkcyjnym z branży FMCG liczba zdarzeń podlegających ciągłej zmianie wartości jest liczona w tysiącach na sekundę. Dzięki odpowiedniemu zastosowaniu algorytmów, można przewidzieć jakie są główne czynniki wpływające na obniżenie bądź zwiększenie jakości produktu.

Analiza prognozy pogody i zbiorów z lat poprzednich daje firmom z branży produkcji żywności możliwość przewidywania wolumenów produkcji. Inteligentne algorytmy są w stanie zautomatyzować proces oceny ryzyka niewypłacalności potencjalnych kontrahentów i klientów, co umożliwia otrzymanie prognoz o ewentualnym opóźnieniu w płatnościach. Z danych TogetherData wynika także, że zastosowanie narzędzi Data Science przyczynia się do efektywnej estymacji marży produktowej oraz audytu wydatków marketingowych jak i automatyzacji predykcji ROI z działań reklamowych.

Różnorodność dostępnych źródeł danych stwarza trudności w stosowaniu i wdrażaniu systemów analitycznych. Zdaniem ekspertów TogetherData, tylko cztery na dziesięć firm w Polsce nie skarży się na brak specjalistycznej wiedzy, aby móc wykorzystać duże zbiory danych do dalszej analizy. Uporządkowanie zetabajtów informacji pochodzących zarówno ze źródeł online jak i offline, jest największym wyzwaniem dla podmiotów z branży przemysłowej. Wynika to z faktu, iż wciąż poziom cyfryzacji polskich przedsiębiorstw jest zatrważająco niski. Badania przeprowadzone w 2018 roku przez firmę ASD Consulting dowodzą, iż 84% firm z branży produkcyjnej gromadzi informacje ręcznie, a co czwarte przedsiębiorstwo przetwarza je analogowo w formie papierowej. Systemami skanerowymi i kodami kreskowymi wspomaga się jedynie 16% firm, a zautomatyzowane procesy gromadzenia cyfrowych informacji z cyklu produkcyjnego wykorzystuje niespełna 12% przedsiębiorstw. Największą barierą blokującą proces „datyzacji” polskiego przemysłu jest opór pracowników – wynika z badania ASD Consulting.

– Wyzwaniem dla polskich przedsiębiorców będzie nie tylko sama kwestia wdrożenia narzędzi analizujących dane, ale także sprytnej i efektywnej strategii ich badania i wykorzystania. Moda na Big Data zmieni się w trend Data Science. – tłumaczy Michał Grams. – Firmy muszą zmienić swoje podejście. Nie liczy się bowiem ilość badanych i wykorzystanych biznesowo danych, lecz technologia, rodzaj i forma narzędzi używanej do analizy – dodaje. Zdaniem ekspertów z TogetherData agregacja danych z wielu źródeł oraz wygenerowanie wysokopoziomowej, między-departamentowej bazy pozwala zwiększyć wyniki działów produkcji, jakości czy logistyki o średnio 15%.

Drugim wyraźnym trendem jest zwiększony nacisk na energooszczędność. To zjawisko było już dobrze widoczne podczas Techmilku. Zużycie energii elektrycznej w Polsce wzrosło w 2018 roku o blisko 1,7% i osiągnęło najwyższy poziom w historii – niemal 171 TWh – wynika z danych Polskich Sieci Elektroenergetycznych (PSE). W ubiegłym roku import netto energii elektrycznej do Polski osiągnął najwyższy poziom w historii – 5,7 TWh. Pobity został tym samym rekord sprzed ponad trzydziestu lat. Prognozy nie są optymistyczne – od 2023 roku w polskim systemie energetycznym będzie brakować ok. 1000 MW, aż do roku 2035 kiedy będzie to już 13 000 MW energii – wynika z raportu PSE o zapotrzebowaniu na energię w latach 2016-2035. Jednocześnie będziemy musieli nie tylko spełnić unijne regulacje, z których wynika, że do 2020 roku emisja CO2 ma zostać zmniejszona o 20%. Polska będzie musiała sprostać także własnemu zapotrzebowaniu na energię, szczególnie w miastach, które obecnie odpowiadają za 75% zużycia energii, a liczba ich mieszkańców będzie dynamicznie rosła. W tym celu konieczna będzie większa elastyczność w zakresie zarządzania zużyciem energii.

Zdaniem Jacka Łukaszewskiego, prezesa Middle Eastern Europe Cluster, Schneider Electric, dalszy rozwój energetyki odnawialnej jest nieunikniony. – Jak wskazują prognozy, odnawialne źródła energii będą w coraz większym stopniu koegzystować z paliwami kopalnymi, konkurując o udział w miksie energetycznym, a do roku 2030 generatory słoneczne i akumulatory będą stanowić około 50% wszystkich nowych instalacji podnoszących ilość dostępnej mocy. Globalna moc paneli fotowoltaicznych pod koniec 2017 roku wynosiła 405 GW. Dodając do tego szacunki analityków z ubiegłego roku wynika, że w światowym systemie elektroenergetycznym w fotowoltaice jest już ponad 0,5 TW mocy. Jak szacuje Bloomberg, w 2018 roku zainstalowano na świecie instalacje fotowoltaiczne o łącznej mocy 109 GW – w 2019 może paść kolejny rekord na poziomie 141 GW – mówi Jacek Łukaszewski. Znaczenie rozwoju fotowoltaniki podkreślali także Wiesław Wasilewski i Dariusz Bliźniak w Mikołajkach.

Każda firma jest inna, każda ma inne potrzeby i przed każdą stoją różne wyzwania, jednak ogólne trendy makroekonomiczne i technologiczne dotyczą wszystkich uczestników rynku.

 


Współpraca