Standaryzacja produktów na rynkach lokalnych na przykładzie rynku napojów

Ta praca zaliczeniowa zawiera listę czynników otoczenia zewnętrznego mogących mieć wpływ na stopień standaryzacji produktów.

Na podstawie zebranych informacji pogrupowałem czynniki otoczenia zewnętrznego i podporządkowałem je czynnikom, które uznałem za najważniejsze, przedstawiając je na utworzonym przeze mnie modelu czynników zewnętrznych wpływających na sposób projektowania produktów dla lokalnych rynków:

Firmy chcące zaistnieć na rynku globalnym powinny zidentyfikować i uwzględnić w planowanej strategii czynniki, które wpływają na sposób promocji produktów i na ich wygląd w odniesieniu do rynków lokalnych. Wśród najważniejszych czynników mogących mieć wpływ na projektowanie produktów dla lokalnych rynków można wymienić:

  • Uwarunkowania klimatyczne regionów

Każdy region wyróżnia się od innych pewnymi cechami np średnią temperatur, natężeniem opadów, czystością powietrza, posiadanymi zasobami naturalnymi lub zanieczyszczeniem. Jest to szczególnie ważny czynnik w przypadku takich produktów jak napoje niegazowane i gazowane, lody, różnego rodzaju produkty mrożone. Analizując ten czynnik w odniesieniu do produktów np. firmy Coca – Cola można stwierdzić, że w różnych regionach o odmiennych strefach klimatycznych, napoje będą się różniły smakiem, barwą lub też temperaturą, w jakiej można je spożywać. W regionach, gdzie z reguły dominują wyższe temperatury powietrza nie będzie opłacalne wprowadzenie na rynek takich napojów, które spożywa się na ciepło. Natomiast lepszym wyjściem jest zaproponowanie takich produktów jak napoje schłodzone i w zależności od upodobań klienta gazowane lub niegazowane, w butelkach szklanych lub typu PET, bardziej lub mniej słodkie. W regionach o umiarkowanym lub niskim poziomie temperatur trudniej jest sprzedawać napoje chłodzące, dlatego też należy tak zaprojektować tego typu produkt, aby dotrzeć do upodobań klienta mieszkającego w danym regionie i zaspokoić jego pragnienie niekoniecznie napojem spożywanym głównie na zimno.

W krajach, gdzie dominuje niska średnia temperatur dobrym rozwiązaniem byłoby zaproponowanie klientom np. herbaty spożywanej na zimno w butelkach lub kartonach, która inaczej będzie postrzegana przez potencjalnych klientów niż cola gazowana. Innym dobrym pomysłem byłoby wprowadzenie na rynek napojów o smaku kawy lub capuccino przygotowanych do bezpośredniego spożycia i zapakowanych w kartony lub butelki o pojemności 0,33, 0,5, 0,75 i 1litra. Napoje tego typu kojarzą się zwykle z gorącą herbatą, kawą lub capuccino, wobec tego potencjalni klienci mogą lub też nie, bardziej preferować takie napoje niż np wodę sodową lub colę gazowaną. Wyszczególnienie pozytywnych cech produktu w zależności od typu regionu może zagwarantować firmie opłacalność sprzedaży na lokalnych rynkach.

Analizując ten czynnik należy dokładnie zidentyfikować interesujące nas segmenty rynku, ponieważ nawet na rynkach gdzie dominują niskie temperatury może znaleźć się taka grupa odbiorców, którzy będą gotowi kupić napoje chłodzące. Może to wynikać ze snobizmu czy też chęci utożsamiania się z pewną grupą osób lub ze znanymi osobistościami występującymi w reklamie napojów. W kawiarniach i pubach przebywają zwolennicy różnego rodzaju napojów: coca coli, drinków i piwa. Jedni preferują alkohol a inni napoje chłodzące np z lodem. Dlatego też uznałem ten czynnik za jeden z ważniejszych przy projektowaniu produktu na lokalne rynki, chociaż tych czynników można wymienić jeszcze więcej.

  • Uwarunkowania kulturowe i styl życia społeczeństwa w regionie

Projektując produkt należy uwzględnić między innymi styl życia społeczeństwa w danym regionie, czym się cechuje potencjalny konsument, jakie są jego upodobania. Należy przede wszystkim umieć znaleźć odpowiedź na pytanie: Jaki musi być produkt aby wzbudził zainteresowanie potencjalnego konsumenta w regionie, został przez niego zakupiony i aby klient był z niego zadowolony ? Firma chcąc sprzedawać swój produkt na lokalnym rynku musi zbadać regionalną kulturę i potrzeby klientów aby mogła znaleźć odpowiedź na pytanie: jaki powinien być wygląd produktu, jak ma być zapakowany i jaka ma być zawartość określonych składników (np cukru w przypadku niektórych napojów).

Również ważne jest dokonanie segmentacji według takich kryteriów jak wykształcenie, średnia wieku i poziom życia. Dokonanie segmentacji pomoże zaprojektować produkt odpowiednio do wymagań każdej grupy docelowej potencjalnych klientów. W różnych regionach możemy się spotkać z różnymi cechami wyróżniającymi dane społeczeństwo, dlatego poznanie kultury i upodobań potencjalnego klienta jest niezbędnym czynnikiem przy projektowaniu produktu. Dzięki poznaniu kultury społeczeństwa na lokalnym rynku firma ma szansę na sprzedaż dobrze zaprojektowanego produktu. Odpowiednie zidentyfikowanie potrzeb konsumentów i podzielenie rynku na segmenty o wspólnych cechach powoduje konieczność zaprojektowania różnego rodzaju produktu dla różnych grup klientów. Niektóre grupy klientów mogą preferować ten sam produkt co inne lecz z pewnymi zmianami np w kolorystyce lub zawartości jakiegoś składnika np w artykułach spożywczych. Projektując produkt dla lokalnych rynków należy brać pod uwagę zróżnicowane potrzeby potencjalnych klientów, bo od tego czynnika zależy dobrze zorganizowana i zyskowna sprzedaż nowych produktów.

  • Tempo rozwoju rynku lokalnego

Jest to jeden z ważniejszych czynników, jakie powinny zostać zbadane przed zaprojektowaniem produktu dla lokalnych rynków. Dokładna analiza rynku lokalnego powinna być poparta badaniami. Cechy rynku lokalnego, tzn jakiego rodzaju przedsiębiorstwa dominują na tym rynku, jaka jest struktura zatrudnienia i inwestycje w danym regionie oraz poznanie strategii rozwoju rynku lokalnego mogą dostarczyć informacji np czy planowany produkt dotrze do odpowiedniej liczby odbiorców ? W jaki sposób ma być zapakowany produkt przy dystrybucji ? Czy na tym rynku znajdziemy podwykonawców lub odpowiednią liczbę hurtowników lub detalistów ? Od tempa rozwoju rynku zależy bogactwo regionu, a co za tym idzie również opłacalność sprzedaży produktu i sposób jego produkcji powyżej określonego progu rentowności. Dlatego też uznałem ten czynnik za mogący mieć wpływ na projektowanie produktów dla lokalnych rynków ze względu na cenę po jakiej będziemy chcieli lub też mogli sprzedawać nasz produkt.

Zanim zaprojektujemy produkt dla rynku lokalnego powinniśmy poznać produkty konkurencji tzn jak są zaprojektowane i jak sprzedają się w centrach handlowych lub małych sklepach detalicznych. Sposób zaprojektowania, promocji i dystrybucji produktów konkurencji może dostarczyć nam cennych informacji o tym jak zaprojektować nasze produkty aby wyróżnić ich szczególne cechy na rynku lub zaproponować produkt lepszej jakości i dostarczający więcej dodatkowych wartości odbiorcom. Badając działalność konkurencji w zakresie oferty handlowej i sposobu promocji możemy uzyskać wiele ciekawych informacji o tym, jaki powinien być produkt oferowany w danym regionie oraz jakiego rodzaju produkty nie będą preferowane przez konsumentów na lokalnym rynku.

Projektując produkt dla lokalnych rynków należy dokładnie sprecyzować pod jaką postacią występują substytuty i w jakiej ilości są sprzedawane na rynku lokalnym. Ponadto ważny jest sposób pakowania, wygląd, jakość i estetyka tego rodzaju produktu. Należy pamiętać o analizie tego czynnika w kontekście projektowania produktu dla lokalnych rynków. Być może dokładna analiza tego czynnika pozwoli nam na zaprojektowanie bardziej atrakcyjnego produktu dla lokalnych konsumentów oraz sprawniejszy sposób dostawy naszych produktów dla odbiorcy niż udostępnione są substytuty.

Warto tutaj również zwrócić uwagę na problem opłacalności projektowania produktu dla lokalnego rynku, na którym nie ma dobrze zorganizowanego systemu informacyjnego i jest mało efektywny dostęp do mediów. Jest to szczególnie ważny czynnik w przypadku, gdy produkt będzie wymagał dobrze zorganizowanej i popartej mediami kampanii promocyjnej. Efektywność lokalnych mediów, zasięg systemu informacyjnego mają także wpływ na sposób projektowania produktu ze względu na planowany koszt wytworzenia i wydatki na reklamę. Nie wszystkie produkty mogą być reklamowane w mediach dlatego też sposób promocji produktu zależeć będzie od jego cech i rodzaju rynku na który zostanie skierowany. Produkt powinien być tak zaprojektowany aby został w odpowiedni sposób zaprezentowany klientom, zaspokoił wymagania potencjalnego klienta i przyniósł firmie dochody. Dlatego też do określonego typu produktu powinniśmy dobrać odpowiednie media i system informacyjny, od których dostępności na rynkach lokalnych może zależeć powodzenie strategii wejścia na rynki lokalne z nowym produktem.

Pośrednicy i sposób dystrybucji mogą częściowo wpłynąć na sposób projektowania produktu dla rynków lokalnych. Otóż produkt powinien być tak zaprojektowany aby można go było transportować bez większych trudności poprzez dostępne kanały dystrybucji. Od pośredników i od czasu dostawy produktu do klienta zależy czy będzie on dostarczony na czas i zgodnie z terminem przydatności do spożycia.

Dostęp do lokalnych zasobów naturalnych może również mieć korzystny wpływ na projektowany produkt. Na przykład w przypadku napojów chłodzących bardzo korzystne dla działań marketingowych będzie wykorzystanie lokalnych zasobów wody pitnej, co pozwoli na wzrost zaufania konsumenta kiedy dowie się że pije on napój światowej marki np Coca – Cola wyprodukowanej na bazie wody wydobywanej ze źródła położonego w pobliżu miejsca jego zamieszkania. Niemałą rolę odgrywa w tym przypadku czynnik kulturowy.

  • Rozpoznawalność marki

Wiele firm działających na rynku globalnym stoi przed problemem dostosowania marki swoich produktów do lokalnych rynków, wiadomo jednak ile korzyści można osiągnąć ze standaryzacji czyli sprzedaży swoich produktów pod jedną marką na wielu rynkach zagranicznych. W przypadku firmy Coca – Cola lub innych znanych na całym świecie firm może nie być problemów ze sprzedażą produktów pod jedną marką, ale co zrobi firma jeśli pojawi się problem z jakością produktu na jednym z zagranicznych rynków ? Zła opinia o produkcie rzutuje wtedy na całą gamę produktów sprzedawanych pod jedną marką i na wizerunek firmy.      

Zależnie od rozpoznawalności marki na lokalnych rynkach różne nazwy są nadawane produktom, z zaznaczeniem oczywiście, że są one wyprodukowane przez jedną firmę działającą na rynku globalnym. Nierzadko firmy wchodzące na nowe rynki korzystają z dostępu do lokalnych producentów realizujących produkcję na zlecenie pod marką swoją bądź też zlecającego produkcję. W ten sposób można ograniczyć ryzyko pogorszenia się marki znanej globalnie jeśli nowy produkt nie przyjmie się na rynku lokalnym bądź też jeśli się okaże, że pojawiły się pewne wady w produkcie.

  • Polityka samorządów i regulacje prawne

Analizując ten czynnik zwróciłem swoją uwagę na potrzebę poznania przepisów prawnych i polityki samorządów w kierunku rozwoju regionu poprzez stymulowanie rozwoju gospodarstw i przedsiębiorstw. Polityka samorządów może mieć wpływ na opłacalność sprzedaży produktu w danym regionie oraz na sposób jego projektowania, promowania i dystrybucji. Samorządy regulują sposób sprzedaży i promocji produktów poprzez różnego rodzaju regulacje prawne, których poznanie staje się niezbędne w przypadku planowanego wejścia na te rynki z nowym produktem. Samorządy mogą ustalać w jakiej postaci produkt powinien być oferowany do sprzedaży określonym grupom konsumentów np dzieciom.

Są pewne normy regulujące sposób informowania konsumenta o zawartości składników w produkcie, o informowaniu klienta kto jest producentem i gdzie produkt został wytworzony oraz o dacie przydatności do spożycia. Są to niezbędne informacje, których umieszczenie bezpośrednio na opakowaniu produktu regulują przepisy.

Projektując produkt powinniśmy pamiętać o tym, że coraz częściej działalność firm podlega kontroli przez różnego rodzaju organizacje zajmujące się ochroną środowiska, a wyszczególnienie takich cech produktu, które powodują że jest nie jest on szkodliwy dla środowiska może być pozytywnie odebrane przez grupy społeczne, organizacje i końcowych konsumentów. Ponadto wykorzystywanie nieszkodliwych dla środowiska komponentów do produkcji świadczy o wysokiej jakości produktu i wpływa pozytywnie na wizerunek firmy.

Omówionych czynników nie należy rozpatrywać osobno. Analiza tych powinna łączyć wszystkie czynniki otoczenia zewnętrznego i na ich podstawie dostarczać ważnych informacji na temat rynku lokalnego i produktu jaki mógłby zostać zaakceptowany przez konsumentów na tym rynku.

Racjonalizacja zatrudnienia

Podejmując działania we współczesnych organizacjach, mające na celu racjonalizację istniejącego zatrudnienia należy pamiętać, że postęp w tej dziedzinie uwarunkowany jest zmianami w innych obszarach funkcjonowania przedsiębiorstwa (i nie tylko) np. w zmianie formy własności, sposobie zarządzania organizacją, zmianami technicznymi i technologicznymi. Zwraca na to m.in. A. Francik stwierdzając, że racjonalizacja zatrudnienia uzależniona jest od ogólnego postępu racjonalizacji gospodarowania. Przesłanki racjonalizacji zatrudnienia mogą mieć swoje źródła zarówno w skali makro-, jak i mikroekonomicznej, bowiem to ludzie, ich zachowania i oczekiwania są istotnym warunkiem powodzenia restrukturyzacji.

Wychodząc z istoty racjonalizacji zatrudnienia jako procesu, i związanego z nim stanu racjonalnego zatrudnienia można przyjąć, że głównym zadaniem w sferze makroekonomicznej jest stwarzanie warunków do minimalizacji bezrobocia, tj. dążenie do stanu „mitycznego, pełnego zatrudnienia”. Oczywiście realizacja tego celu, powinna polegać nie tyle na obowiązkowym zapewnieniu przez państwo, rynek pracy gwarantowanych miejsc pracy, ile na zapewnieniu warunków do podejmowania pracy przez osoby zainteresowane, w miarę możliwości zgodnie z ich posiadanymi kwalifikacjami, ewentualnie stworzenie możliwości przekwalifikowań, dostosowując je do potrzeb regionalnego rynku pracy.

W szczególności problem ten uwidacznia się w tych regionach, w których przewidziano i przeprowadza się restrukturyzację całej branży, np. w górnictwie, hutnictwie zgodnie z przyjętymi założeniami polityki społeczno -gospodarczej państwa. Działania te nie wykluczają zmian miejsca pracy, co więcej wskazują na możliwości alokacji zasobów pracy do regionów, branż, w których istnieje możliwość wchłonięcia przez rynek pracy bezrobotnych. Przyczyn przymusowej zmiany miejsc pracy jest wiele, np. likwidacja przestarzałych technicznie czy nieefektywnych z ekonomicznego i organizacyjnego punktu widzenia stanowisk pracy, lub nawet całych jednostek organizacyjnych. Zakłada się nawet zwiększenie celowych rodzajów ruchliwości pracowniczej, którą można określić mianem przemieszczeń pracowniczych. Określanie kierunków przemieszczeń w ramach prowadzonej polityki personalnej państwa powinno być ściśle skorelowane z realizowaną  polityką kształcenia, inwestycyjną, społeczną, rozwoju postępu naukowo-technicznego czy mieszkaniową.

W skali mikroekonomicznej racjonalizacja zatrudnienia i osiąganie stanu racjonalnego zatrudnienia następuje na poziomie przedsiębiorstwa, i oznacza zapewnienie niezbędnego pod względem ilości i jakości potencjału pracy do prawidłowego realizowania określonej strategii, celów, przy istniejącym w danej organizacji sposobie zarządzania, poziomie technicznym i technologicznym. Na racjonalizację w ujęciu mikroekonomicznym istotny wpływ wywierają oprócz czynników zewnętrznych, przede wszystkim czynniki wewnętrzne, do których zaliczyć należy: przyjętą i realizowaną politykę zatrudnienia w ramach której podejmowane decyzje dotyczą prognozowania potrzeb personalnych, doboru do pracy, organizacji procesów adaptacji do pracy, stosowania zintegrowanych systemów oceniania, wynagradzania, awansowania, prowadzenia działalności ukierunkowanej na rozwój pracowników.

Ocenie stopnia realizacji procesu racjonalizacji zatrudnienia na płaszczyźnie mikroekonomicznej służyć powinno określenie stopnia zgodności poziomu i struktury zatrudnienia z wymogami natury techniczno-technologicznej oraz ekonomiczno-organizacyjnej. Analizy strategiczne wielu polskich przedsiębiorstw poprzedzające proces restrukturyzacji ujawniły bowiem znaczne przerosty w zatrudnieniu, a wprowadzenie postępu technicznego, przełamującego lukę technologiczną prowadzi do pogłębiania problemu zbędnej siły roboczej. Ale nie tylko ocenie stopnia zaawansowania procesu racjonalizacji zatrudnienia służy określenie stanu i struktury zatrudnienia, pomocne powinny być również analizy dotyczące wykorzystania nominalnego i efektywnego czasu pracy, wykorzystanie potencjału kwalifikacyjnego pracowników, stan w dziedzinie bezpieczeństwa i higieny pracy, stopień zadowolenia z pracy jako wynik względnie wysokiego zaspokojenia aspiracji zawodowych pracowników.

W okresie transformacji gospodarczej i związanej z nią decentralizacji zarządzania, oraz przekazaniu niektórych uprawnień społeczności lokalnej problem integracji prowadzonej polityki zatrudnienia w przedsiębiorstwach z  polityką na szczeblu regionów nabiera coraz większego znaczenia.

Reengineering

Pojęcie reengineeringu pojawiło się w światowej literaturze na początku lat dziewięćdziesiątych. Wprowadzili je w swojej książce „Reengineering the Corporation” Michael Hammer i James Champy. Jest ono rozumiane jako „fundamentalne przemyślenie od nowa i radykalne przeprojektowanie procesów w firmie, prowadzące do dramatycznej (przełomowej) poprawy wysokości ponoszonych kosztów, jakości i serwisu”. Metoda ta stała się wkrótce bardzo popularnym narzędziem stosowanym przez wiele zachodnich koncernów, np. firmę ABB. Prezentację graficzną metodologii opisywanych badaczy zamieściłem w załącznikach. Zastosowanie reengineeringu staje się coraz bardziej popularne również w Polsce. Na polskim rynku usług funkcjonują już firmy, które oferują swoim klientom pomoc w realizacji różnego rodzaju projektów związanych z procesem reengineeringu. Polski rynek usług znajduje się w fazie silnego rozwoju. Ma to związek z realizowaną obecnie prywatyzacją państwowych przedsiębiorstw oraz związaną z tym zmianą stylu zarządzania w powstających w ten sposób nowych firmach.

Obecnie każda chyba firma dąży do wyróżnienia się czymś na rynku. W tym celu zarządzający firmami decydują się na dokonanie szeregu zmian, w tym m.in. na zmianę dotychczasowej struktury organizacyjnej (często bardzo rozbudowanej i skomplikowanej) na strukturę procesową. Punktem wyjścia jest zidentyfikowanie wszystkich procesów zachodzących w firmie (szczególnie w procesie produkcji), celem znalezienia sposobu ich zmiany w bardziej wydajne i mniej skomplikowane. Narzędziem w realizacji tego zadania jest właśnie reengineering. Głównym elementem reengineeringu jest bowiem monitorowanie zachodzących w firmie procesów i stymulowanie ich efektywności.

Proces reengineeringu wymaga stałej kontroli, zarówno w trakcie jego wdrażania, jak i po jego zakończeniu. Ze względu na złożoność tego procesu, kierownictwo może skorzystać z usług wyspecjalizowanej tej dziedzinie w firmy lub powołać do tego celu zespół własny zadaniowy (być może z udziałem osób spoza firmy).

Czasami na reengineering decydują się także przedsiębiorstwa o mocnej pozycji rynkowej. Czynią to, aby uczynić ją jeszcze mocniejszą, a tym samym zapobiec sytuacji, w której konieczne byłoby zastosowanie reengineeringu „ratunkowego”.

W literaturze światowej można znaleźć wiele publikacji na temat reengineeringu, zarówno w formie książek, raportów, artykułów prasowych, jak i na stronach internetowych instytutów badawczych, osób prywatnych lub firm konsultingowych. Warto tutaj zwrócić uwagę na dwa główne poglądy na temat reengineeringu. Otóż jest pewna grupa badaczy, którzy uważają reengineering za rewolucyjny pomysł na zmianę funkcjonowania firmy, natomiast inni uważają reorganizację procesów za „stare wino w dobrych butelkach”.

Badania na temat reorganizacji procesów prowadzili Michael Hammer, James Champy i Thomas H. Davenport, których w późniejszym czasie uznano za odkrywców reengineeringu i obwołano największymi specjalistami w tej dziedzinie. Zajmowali się oni głównie zastosowaniami informatyki w firmach Mutual Benefit Life, Ford oraz IBM Credit. Wnioski z przeprowadzonych badań opublikowali w formie artykułów w 1990 roku. W 1992 roku M. Hammer i T. H. Davenport wydali swoje pierwsze książki.

Wspomniani autorzy zaproponowali odmienne wersje reengineeringu. Hammer potraktował reengineering bardzo ogólnie i dążył w kierunku dokonywania radykalnych zmian bez większego zainteresowania zasobami ludzkimi. Natomiast Davenport opisał reorganizację bardziej szczegółowo, zwracając szczególną uwagę na metodę działania oraz na udział i większe zaangażowanie załogi w proces zmian w firmie. Z kolei reorganizacja procesów według Davenporta nastawiona jest bardziej na potrzeby, kompetencje i umiejętności pracowników niż to zaproponował Hammer w swojej książce pt. „Reengineering the Corporation”. Rosnąca popularność reorganizacji propagowanej przez Hammera doprowadziła do tego, że już w 1994 roku aż 69-% amerykańskich i 75-% europejskich firm zainwestowało miliardy dolarów w reorganizację procesów. Prawdopodobnie źle przygotowany proces reorganizacji spowodował, że ponad połowa przedsiębiorstw poniosła straty i nie poprawiła swojej pozycji rynkowej ani kondycji finansowej.

Boom reorganizacyjny, jaki nastąpił w 1994 roku w Stanach Zjednoczonych, doprowadził też do polepszenia funkcjonowania niektórych firm, lecz część z organizacji, które odniosły sukces w reengineeringu, w krótkim czasie zaczęła tracić swoją kondycję finansową, w efekcie czego była przejmowana przez inne firmy lub traciła swoją pozycję rynkową. Odpowiedzią rynku na coraz modniejszą reorganizację procesów była coraz większa liczba firm konsultingowych, które specjalizowały się w świadczeniu tego typu usług. Obiecywały one m.-in. poprawę kondycji finansowej firmy, usprawnienie obiegu informacji pomiędzy ogniwami struktury organizacyjnej firmy i efektywniejsze stosowanie technologii informatycznej.

Lata 1995 i 1996 były okresem, w którym zmienił się stosunek organizacji do reengineeringu. Dokonano analizy błędów i wyciągnięto wnioski z niepowodzeń w latach poprzednich. W okresie tym wytworzył się nowy punkt widzenia na reorganizację procesów. Od 1995 roku daje się zauważyć zmiana postrzegania reengineeringu w stosunku do innych sposobów reorganizacji przedsiębiorstw. Reorganizację procesów uważa się dziś za jedno z wielu narzędzi wdrażania strategii firmy, jej ekspansji i rozwoju.

Podejście do wdrażania strategii firmy nazwane zostało schematem wskaźników. Schemat wskaźników umożliwia połączenie zorientowanych na procesy inicjatyw ze strategicznymi celami w zakresie wyników finansowych i zasobów firmy. Schemat wskaźników może być znacznym ułatwieniem przy reorganizacji a także przy wyborze narzędzi do pomiaru wyników związanych ze zmianami. Podejście to umożliwia planowe zreorganizowanie procesów lub ich tworzenie zgodnie z realizowaną strategią firmy.

Model warstwowy OSI

praca o sieciach komputerowych

Model OSI (Open Systems Interconnection) opisuje sposób przepływu informacji między aplikacjami software’owymi w jednej stacji sieciowej a software’owymi aplikacjami w innej stacji sieciowej przy użyciu medium transmisyjnego. Model OSI jest ogólnym modelem koncepcyjnym, skomponowanym z siedmiu warstw, z których każda opisuje określone funkcje sieciowe. Nie określa szczegółowych metod komunikacji.

Mechanizmy rzeczywistej komunikacji są określone w formie protokołów komunikacyjnych. Dzieli on zadanie przesyłania informacji między stacjami sieciowymi na siedem mniejszych zadań składających się na poszczególne warstwy. Zadanie przypisane każdej warstwie ma charakter autonomiczny i może być interpretowane niezależnie.

Warstwy OSI:

  • warstwa 7 – Aplikacji. Jest bramą, przez którą procesy aplikacji dostają się do usług sieciowych. Ta warstwa prezentuje usługi, które są realizowane przez aplikacje (przesyłanie plików, dostęp do baz danych, poczta elektroniczna itp.)
  • warstwa 6 – Prezentacji danych. Odpowiada za format używany do wymiany danych pomiędzy komputerami w sieci. Na przykład kodowanie i dekodowanie danych odbywa się w tej warstwie.

Większość protokołów sieciowych nie zawiera tej warstwy.

  • warstwa 5 – Sesji. Pozwala aplikacjom z różnych komputerów nawiązywać, wykorzystywać i kończyć połączenie (zwane sesją). Warstwa ta tłumaczy nazwy systemów na właściwe adresy (na przykład na adresy IP w sieci TCP/IP).
  • warstwa 4 – Transportu. Jest odpowiedzialna za dostawę wiadomości, które pochodzą z warstwy aplikacyjnej. U nadawcy warstwa transportu dzieli długie wiadomości na kilka pakietów, natomiast u odbiorcy odtwarza je i wysyła potwierdzenie odbioru. Sprawdza także, czy dane zostały przekazane we właściwej kolejności i na czas. W przypadku pojawienia się błędów warstwa żąda powtórzenia transmisji danych.
  • warstwa 3 – Sieciowa. Kojarzy logiczne adresy sieciowe i ma możliwość zamiany adresów logicznych na fizyczne. U nadawcy warstwa sieciowa zamienia duże pakiety logiczne w małe fizyczne ramki danych, zaś u odbiorcy składa ramki danych w pierwotną logiczną strukturę danych.
  • warstwa 2 – Łącza transmisyjnego (danych). Zajmuje się pakietami logicznymi (lub ramkami) danych.

Pakuje nieprzetworzone bity danych z warstwy fizycznej w ramki, których format zależy od typu sieci: Ethernet lub Token Ring. Ramki używane przez tą warstwę zawierają fizyczne adresy nadawcy i odbiorcy danych.

  • warstwa 1 – Fizyczna. Przesyła nieprzetworzone bity danych przez fizyczny nośnik (kabel sieciowy lub fale elektromagnetyczne w przypadku sieci radiowych). Ta warstwa przenosi dane generowane przez wszystkie wyższe poziomy.

Przy czym warstwy 1 do 4 są to tzw. warstwy niższe (transport danych) zaś warstwy 5 do 7 to warstwy wyższe (aplikacje).

Model OSI nie odnosi się do jakiegokolwiek sprzętu lub oprogramowania. Zapewnia po prostu strukturę i terminologię potrzebną do omawiania różnych właściwości sieci.1


1 „Sieci Komputerowe Księga Eksperta” – M. Sportack, Wydawnictwo Helion 1999 r.

Ewolucja doktryny liberalizmu

Opisując rozmaite definicje liberalizmu, próbowałam uwzględnić cechy, które są najważniejsze. Katalog cech skonstruowany przeze mnie jest zwięzły a jednocześnie zawiera maksymalnie wiele istotnych właściwości wypływających z tych kilku cech podstawowych.

Drugi okres od lat siedemdziesiątych XIX wieku do lat osiemdziesiątych XX wieku, to liberalizm społeczny lub inaczej demokratyczny – bardziej konserwatywny. Taka zmiana była spowodowana między innymi krytyką, płynącą ze strony socjalistów i ruchów katolickich. Zmieniły się czasy, otoczenie ekonomiczne i społeczne. W klasycznym liberalizmie występowano przeciwko interwencjonizmowi państwowemu i etatyzmowi. Rola władzy zorganizowanej była minimalizowana. To jednostka była najważniejsza. W neoliberalizmie znaczną rolę w zapewnieniu równości i wolności obywatelom przypisuje się państwu. Nie ma tu już. klasycznej zasady, powołanej do życia przez Adama Smitha – laissez-faire, czyli zasady niewidzialnej ręki rynku. W neoliberalizmie to państwo kieruje gospodarką. Jest to program sterowania siłami ekonomicznymi w celu zapewnienia równości społecznej i sprawiedliwości.[1]

Drugi okres liberalizmu to adaptowanie się myśli do postulatów demokratycznych, przyjęcie podstawowych zasad demokracji politycznej, czyli: zasady suwerenności narodu, powszechne prawo wyborcze, ustrój parlamentarny. Ten liberalizm nazwano demoliberalizmem. Oczywiście ścisłe określenie granic między ideologią liberalizmu arystokratycznego a demokratycznego nie można określić konkretną datą, ale z biegiem czasu widać jak zakres akceptacji wartości demokratycznych wzrastał. Przede wszystkim można tutaj wskazać akceptację powszechnego prawa wyborczego.[2]

Warto zaznaczyć, że od ostatnich dekad XIX wieku do okresu powojennego występowały oznaki narastającego antyliberalizmu. I Wojna Światowa była ostateczną przyczyną rozbicia porządku liberalnego. Rozpoczęła się era wojen i tyranii.[3]

Ruchy nacjonalistyczne wyłoniły się wszędzie po upadku dawnych imperiów, a w Niemczech i Rosji doszły do władzy totalitarne reżimy co spowodowało zniszczenie wolności w prawie całym cywilizowanym świecie. Do lat trzydziestych XX wieku niewielu było myślicieli, którzy nie uważaliby się za krytyków liberalizmu. Do czasu wybuchu II Wojny Światowej wydawało się, że ideały liberalizmu „dożyły już swoich dni” .[4]

Po drugiej wojnie światowej, liberałowie przyswoili sobie szereg postulatów socjalistycznych z doktryn socjalizmu reformistycznego. Oznaczało to zwiększenie interwencjonizmu państwowego w zakresie opieki społecznej, objął on także wiele poczynań związanych z programem welfare state. To ten nurt jest nazywany liberalizmem socjalnym i stanowi największe przeobrażenia klasycznej myśli liberalnej.[5] Liberalizm socjalny zyskał na znaczeniu podczas wielkiego kryzysu gospodarczego lat trzydziestych. Dopuszczano tutaj, kosztem ograniczenia pełni wolności, interwencję państwa w mechanizmy wolnego rynku, aby dać zabezpieczenie socjalne najbiedniejszym.

Należy jednak zaznaczyć, że pomimo II Wojny Światowej i jej przyczynienia się do zwiększenia zakresu aktywności państwa we wszystkich dziedzinach życia, bezpośrednio po niej poważny wkład w życie intelektualne wnieśli myśliciele, którzy wierni byli liberalizmowi klasycznemu, nie rewizjonistycznemu czy zmodernizowanemu. Powracanie do klasycznego liberalizmu wyraźnie zyskało na sile w drugiej połowie XX wieku. Zaczęto głosić, że liberalizm jest pozbawiony sensu jeśli istnieje interwencjonizm państwowy.

Warto już w tym momencie, poświęcić chwilę na wspomnienie o pracy Friedricha Augusta von Hayeka zatytułowanej Droga do zniewolenia. Praca została napisana w roku 1944. Wyjątkowość pracy Hayeka polegała na tym, że postawił on w niej śmiałą tezę. Wbrew całej ówczesnej opinii, stwierdził, że korzenie nazizmu tkwiły od początku w myśli i praktyce socjalizmu. Ostrzegał on wyraźnie, że stosowanie przez narody Zachodu, socjalistycznych metod sprawowania władzy sprowadzi na nie nieuchronnie „karę totalitaryzmu”. [6] [7] Oczywiście tezy Hayeka były konsekwentnie ignorowane szczególnie w świecie anglojęzycznym. Jednak odegrały one ważną rolę w Niemczech. Wzmocniły nurt myśli neoliberalnej, która umożliwiła zniesienie mechanizmów kontrolnych w gospodarce, dzięki czemu mieliśmy do czynienia z powojennym cudem gospodarczym.

Dwudziestopięciolecie po zakończeniu II wojny światowej jest określane zwykle jako okres konsensu keynesowskiego. Po destrukcji jaką spowodowała II wojna światowa nastąpił czas gwałtownego wzrostu gospodarczego, który najbardziej widoczny był w krajach, w których porażka w konflikcie pozwoliła na gruntowna przebudowę państwa. Wtedy właśnie w roku 1960 Hayek opublikował pracę pt. Konstytucja wolności. Dzieło to oprócz wkładu do filozofii politycznej jest ważne, ponieważ zawiera rekonstrukcję głównych idei szkoły austriackiej, o której szerzej napisze w kolejnym rozdziale pracy. Hayek skonstruował teorię ekonomiczną, która zachowując podstawowe tezy ekonomistów klasycznych, poprawiała ich podstawowe niedoskonałości. Praca ta została doceniona dopiero w latach siedemdziesiątych wraz z rozpadem paradygmatu keynesowskiego. Wtedy to w Stanach Zjednoczonych, Ludwig von Mises, Murray Rothbard i Israel Kirzner dokonali przeformułowania założeń szkoły austriackiej.

W połowie lat siedemdziesiątych powrót do klasycznej teorii ekonomii spotkał się z uznaniem publicznym, czego wyrazem było przyznanie Hayekowi i Friedmanowi Nagrody Nobla.49 Później ich idee były wykorzystywane przez takie postacie jak Margaret Thatcher czy Ronald Reagan.


[1]  R. Tokarczyk,Współczesne doktryny polityczne, Zakamycze, Kraków 2006, s.15

[2]  R. Tokarczyk, Współczesne…, opr. cyt., s.66

[3]  J. Grey, Liberalizm, ZNAK, Kraków 1994, s. 50

[4]  J. Grey, Liberalizm, opr. cyt., s.51

[5]  B. Sobolewska, M. Sobolewski, Myśl… opr. cyt., s. 20

[6]  J. Grey, Liberalizm, opr. cyt., s. 52

[7]  J.Grey, Liberalizm, opr. cyt., s. 54