Racjonalizacja zatrudnienia

Podejmując działania we współczesnych organizacjach, mające na celu racjonalizację istniejącego zatrudnienia należy pamiętać, że postęp w tej dziedzinie uwarunkowany jest zmianami w innych obszarach funkcjonowania przedsiębiorstwa (i nie tylko) np. w zmianie formy własności, sposobie zarządzania organizacją, zmianami technicznymi i technologicznymi. Zwraca na to m.in. A. Francik stwierdzając, że racjonalizacja zatrudnienia uzależniona jest od ogólnego postępu racjonalizacji gospodarowania. Przesłanki racjonalizacji zatrudnienia mogą mieć swoje źródła zarówno w skali makro-, jak i mikroekonomicznej, bowiem to ludzie, ich zachowania i oczekiwania są istotnym warunkiem powodzenia restrukturyzacji.

Wychodząc z istoty racjonalizacji zatrudnienia jako procesu, i związanego z nim stanu racjonalnego zatrudnienia można przyjąć, że głównym zadaniem w sferze makroekonomicznej jest stwarzanie warunków do minimalizacji bezrobocia, tj. dążenie do stanu „mitycznego, pełnego zatrudnienia”. Oczywiście realizacja tego celu, powinna polegać nie tyle na obowiązkowym zapewnieniu przez państwo, rynek pracy gwarantowanych miejsc pracy, ile na zapewnieniu warunków do podejmowania pracy przez osoby zainteresowane, w miarę możliwości zgodnie z ich posiadanymi kwalifikacjami, ewentualnie stworzenie możliwości przekwalifikowań, dostosowując je do potrzeb regionalnego rynku pracy.

W szczególności problem ten uwidacznia się w tych regionach, w których przewidziano i przeprowadza się restrukturyzację całej branży, np. w górnictwie, hutnictwie zgodnie z przyjętymi założeniami polityki społeczno -gospodarczej państwa. Działania te nie wykluczają zmian miejsca pracy, co więcej wskazują na możliwości alokacji zasobów pracy do regionów, branż, w których istnieje możliwość wchłonięcia przez rynek pracy bezrobotnych. Przyczyn przymusowej zmiany miejsc pracy jest wiele, np. likwidacja przestarzałych technicznie czy nieefektywnych z ekonomicznego i organizacyjnego punktu widzenia stanowisk pracy, lub nawet całych jednostek organizacyjnych. Zakłada się nawet zwiększenie celowych rodzajów ruchliwości pracowniczej, którą można określić mianem przemieszczeń pracowniczych. Określanie kierunków przemieszczeń w ramach prowadzonej polityki personalnej państwa powinno być ściśle skorelowane z realizowaną  polityką kształcenia, inwestycyjną, społeczną, rozwoju postępu naukowo-technicznego czy mieszkaniową.

W skali mikroekonomicznej racjonalizacja zatrudnienia i osiąganie stanu racjonalnego zatrudnienia następuje na poziomie przedsiębiorstwa, i oznacza zapewnienie niezbędnego pod względem ilości i jakości potencjału pracy do prawidłowego realizowania określonej strategii, celów, przy istniejącym w danej organizacji sposobie zarządzania, poziomie technicznym i technologicznym. Na racjonalizację w ujęciu mikroekonomicznym istotny wpływ wywierają oprócz czynników zewnętrznych, przede wszystkim czynniki wewnętrzne, do których zaliczyć należy: przyjętą i realizowaną politykę zatrudnienia w ramach której podejmowane decyzje dotyczą prognozowania potrzeb personalnych, doboru do pracy, organizacji procesów adaptacji do pracy, stosowania zintegrowanych systemów oceniania, wynagradzania, awansowania, prowadzenia działalności ukierunkowanej na rozwój pracowników.

Ocenie stopnia realizacji procesu racjonalizacji zatrudnienia na płaszczyźnie mikroekonomicznej służyć powinno określenie stopnia zgodności poziomu i struktury zatrudnienia z wymogami natury techniczno-technologicznej oraz ekonomiczno-organizacyjnej. Analizy strategiczne wielu polskich przedsiębiorstw poprzedzające proces restrukturyzacji ujawniły bowiem znaczne przerosty w zatrudnieniu, a wprowadzenie postępu technicznego, przełamującego lukę technologiczną prowadzi do pogłębiania problemu zbędnej siły roboczej. Ale nie tylko ocenie stopnia zaawansowania procesu racjonalizacji zatrudnienia służy określenie stanu i struktury zatrudnienia, pomocne powinny być również analizy dotyczące wykorzystania nominalnego i efektywnego czasu pracy, wykorzystanie potencjału kwalifikacyjnego pracowników, stan w dziedzinie bezpieczeństwa i higieny pracy, stopień zadowolenia z pracy jako wynik względnie wysokiego zaspokojenia aspiracji zawodowych pracowników.

W okresie transformacji gospodarczej i związanej z nią decentralizacji zarządzania, oraz przekazaniu niektórych uprawnień społeczności lokalnej problem integracji prowadzonej polityki zatrudnienia w przedsiębiorstwach z  polityką na szczeblu regionów nabiera coraz większego znaczenia.

Reengineering

Pojęcie reengineeringu pojawiło się w światowej literaturze na początku lat dziewięćdziesiątych. Wprowadzili je w swojej książce „Reengineering the Corporation” Michael Hammer i James Champy. Jest ono rozumiane jako „fundamentalne przemyślenie od nowa i radykalne przeprojektowanie procesów w firmie, prowadzące do dramatycznej (przełomowej) poprawy wysokości ponoszonych kosztów, jakości i serwisu”. Metoda ta stała się wkrótce bardzo popularnym narzędziem stosowanym przez wiele zachodnich koncernów, np. firmę ABB. Prezentację graficzną metodologii opisywanych badaczy zamieściłem w załącznikach. Zastosowanie reengineeringu staje się coraz bardziej popularne również w Polsce. Na polskim rynku usług funkcjonują już firmy, które oferują swoim klientom pomoc w realizacji różnego rodzaju projektów związanych z procesem reengineeringu. Polski rynek usług znajduje się w fazie silnego rozwoju. Ma to związek z realizowaną obecnie prywatyzacją państwowych przedsiębiorstw oraz związaną z tym zmianą stylu zarządzania w powstających w ten sposób nowych firmach.

Obecnie każda chyba firma dąży do wyróżnienia się czymś na rynku. W tym celu zarządzający firmami decydują się na dokonanie szeregu zmian, w tym m.in. na zmianę dotychczasowej struktury organizacyjnej (często bardzo rozbudowanej i skomplikowanej) na strukturę procesową. Punktem wyjścia jest zidentyfikowanie wszystkich procesów zachodzących w firmie (szczególnie w procesie produkcji), celem znalezienia sposobu ich zmiany w bardziej wydajne i mniej skomplikowane. Narzędziem w realizacji tego zadania jest właśnie reengineering. Głównym elementem reengineeringu jest bowiem monitorowanie zachodzących w firmie procesów i stymulowanie ich efektywności.

Proces reengineeringu wymaga stałej kontroli, zarówno w trakcie jego wdrażania, jak i po jego zakończeniu. Ze względu na złożoność tego procesu, kierownictwo może skorzystać z usług wyspecjalizowanej tej dziedzinie w firmy lub powołać do tego celu zespół własny zadaniowy (być może z udziałem osób spoza firmy).

Czasami na reengineering decydują się także przedsiębiorstwa o mocnej pozycji rynkowej. Czynią to, aby uczynić ją jeszcze mocniejszą, a tym samym zapobiec sytuacji, w której konieczne byłoby zastosowanie reengineeringu „ratunkowego”.

W literaturze światowej można znaleźć wiele publikacji na temat reengineeringu, zarówno w formie książek, raportów, artykułów prasowych, jak i na stronach internetowych instytutów badawczych, osób prywatnych lub firm konsultingowych. Warto tutaj zwrócić uwagę na dwa główne poglądy na temat reengineeringu. Otóż jest pewna grupa badaczy, którzy uważają reengineering za rewolucyjny pomysł na zmianę funkcjonowania firmy, natomiast inni uważają reorganizację procesów za „stare wino w dobrych butelkach”.

Badania na temat reorganizacji procesów prowadzili Michael Hammer, James Champy i Thomas H. Davenport, których w późniejszym czasie uznano za odkrywców reengineeringu i obwołano największymi specjalistami w tej dziedzinie. Zajmowali się oni głównie zastosowaniami informatyki w firmach Mutual Benefit Life, Ford oraz IBM Credit. Wnioski z przeprowadzonych badań opublikowali w formie artykułów w 1990 roku. W 1992 roku M. Hammer i T. H. Davenport wydali swoje pierwsze książki.

Wspomniani autorzy zaproponowali odmienne wersje reengineeringu. Hammer potraktował reengineering bardzo ogólnie i dążył w kierunku dokonywania radykalnych zmian bez większego zainteresowania zasobami ludzkimi. Natomiast Davenport opisał reorganizację bardziej szczegółowo, zwracając szczególną uwagę na metodę działania oraz na udział i większe zaangażowanie załogi w proces zmian w firmie. Z kolei reorganizacja procesów według Davenporta nastawiona jest bardziej na potrzeby, kompetencje i umiejętności pracowników niż to zaproponował Hammer w swojej książce pt. „Reengineering the Corporation”. Rosnąca popularność reorganizacji propagowanej przez Hammera doprowadziła do tego, że już w 1994 roku aż 69-% amerykańskich i 75-% europejskich firm zainwestowało miliardy dolarów w reorganizację procesów. Prawdopodobnie źle przygotowany proces reorganizacji spowodował, że ponad połowa przedsiębiorstw poniosła straty i nie poprawiła swojej pozycji rynkowej ani kondycji finansowej.

Boom reorganizacyjny, jaki nastąpił w 1994 roku w Stanach Zjednoczonych, doprowadził też do polepszenia funkcjonowania niektórych firm, lecz część z organizacji, które odniosły sukces w reengineeringu, w krótkim czasie zaczęła tracić swoją kondycję finansową, w efekcie czego była przejmowana przez inne firmy lub traciła swoją pozycję rynkową. Odpowiedzią rynku na coraz modniejszą reorganizację procesów była coraz większa liczba firm konsultingowych, które specjalizowały się w świadczeniu tego typu usług. Obiecywały one m.-in. poprawę kondycji finansowej firmy, usprawnienie obiegu informacji pomiędzy ogniwami struktury organizacyjnej firmy i efektywniejsze stosowanie technologii informatycznej.

Lata 1995 i 1996 były okresem, w którym zmienił się stosunek organizacji do reengineeringu. Dokonano analizy błędów i wyciągnięto wnioski z niepowodzeń w latach poprzednich. W okresie tym wytworzył się nowy punkt widzenia na reorganizację procesów. Od 1995 roku daje się zauważyć zmiana postrzegania reengineeringu w stosunku do innych sposobów reorganizacji przedsiębiorstw. Reorganizację procesów uważa się dziś za jedno z wielu narzędzi wdrażania strategii firmy, jej ekspansji i rozwoju.

Podejście do wdrażania strategii firmy nazwane zostało schematem wskaźników. Schemat wskaźników umożliwia połączenie zorientowanych na procesy inicjatyw ze strategicznymi celami w zakresie wyników finansowych i zasobów firmy. Schemat wskaźników może być znacznym ułatwieniem przy reorganizacji a także przy wyborze narzędzi do pomiaru wyników związanych ze zmianami. Podejście to umożliwia planowe zreorganizowanie procesów lub ich tworzenie zgodnie z realizowaną strategią firmy.

Model warstwowy OSI

praca o sieciach komputerowych

Model OSI (Open Systems Interconnection) opisuje sposób przepływu informacji między aplikacjami software’owymi w jednej stacji sieciowej a software’owymi aplikacjami w innej stacji sieciowej przy użyciu medium transmisyjnego. Model OSI jest ogólnym modelem koncepcyjnym, skomponowanym z siedmiu warstw, z których każda opisuje określone funkcje sieciowe. Nie określa szczegółowych metod komunikacji.

Mechanizmy rzeczywistej komunikacji są określone w formie protokołów komunikacyjnych. Dzieli on zadanie przesyłania informacji między stacjami sieciowymi na siedem mniejszych zadań składających się na poszczególne warstwy. Zadanie przypisane każdej warstwie ma charakter autonomiczny i może być interpretowane niezależnie.

Warstwy OSI:

  • warstwa 7 – Aplikacji. Jest bramą, przez którą procesy aplikacji dostają się do usług sieciowych. Ta warstwa prezentuje usługi, które są realizowane przez aplikacje (przesyłanie plików, dostęp do baz danych, poczta elektroniczna itp.)
  • warstwa 6 – Prezentacji danych. Odpowiada za format używany do wymiany danych pomiędzy komputerami w sieci. Na przykład kodowanie i dekodowanie danych odbywa się w tej warstwie.

Większość protokołów sieciowych nie zawiera tej warstwy.

  • warstwa 5 – Sesji. Pozwala aplikacjom z różnych komputerów nawiązywać, wykorzystywać i kończyć połączenie (zwane sesją). Warstwa ta tłumaczy nazwy systemów na właściwe adresy (na przykład na adresy IP w sieci TCP/IP).
  • warstwa 4 – Transportu. Jest odpowiedzialna za dostawę wiadomości, które pochodzą z warstwy aplikacyjnej. U nadawcy warstwa transportu dzieli długie wiadomości na kilka pakietów, natomiast u odbiorcy odtwarza je i wysyła potwierdzenie odbioru. Sprawdza także, czy dane zostały przekazane we właściwej kolejności i na czas. W przypadku pojawienia się błędów warstwa żąda powtórzenia transmisji danych.
  • warstwa 3 – Sieciowa. Kojarzy logiczne adresy sieciowe i ma możliwość zamiany adresów logicznych na fizyczne. U nadawcy warstwa sieciowa zamienia duże pakiety logiczne w małe fizyczne ramki danych, zaś u odbiorcy składa ramki danych w pierwotną logiczną strukturę danych.
  • warstwa 2 – Łącza transmisyjnego (danych). Zajmuje się pakietami logicznymi (lub ramkami) danych.

Pakuje nieprzetworzone bity danych z warstwy fizycznej w ramki, których format zależy od typu sieci: Ethernet lub Token Ring. Ramki używane przez tą warstwę zawierają fizyczne adresy nadawcy i odbiorcy danych.

  • warstwa 1 – Fizyczna. Przesyła nieprzetworzone bity danych przez fizyczny nośnik (kabel sieciowy lub fale elektromagnetyczne w przypadku sieci radiowych). Ta warstwa przenosi dane generowane przez wszystkie wyższe poziomy.

Przy czym warstwy 1 do 4 są to tzw. warstwy niższe (transport danych) zaś warstwy 5 do 7 to warstwy wyższe (aplikacje).

Model OSI nie odnosi się do jakiegokolwiek sprzętu lub oprogramowania. Zapewnia po prostu strukturę i terminologię potrzebną do omawiania różnych właściwości sieci.1


1 „Sieci Komputerowe Księga Eksperta” – M. Sportack, Wydawnictwo Helion 1999 r.

Ewolucja doktryny liberalizmu

Opisując rozmaite definicje liberalizmu, próbowałam uwzględnić cechy, które są najważniejsze. Katalog cech skonstruowany przeze mnie jest zwięzły a jednocześnie zawiera maksymalnie wiele istotnych właściwości wypływających z tych kilku cech podstawowych.

Drugi okres od lat siedemdziesiątych XIX wieku do lat osiemdziesiątych XX wieku, to liberalizm społeczny lub inaczej demokratyczny – bardziej konserwatywny. Taka zmiana była spowodowana między innymi krytyką, płynącą ze strony socjalistów i ruchów katolickich. Zmieniły się czasy, otoczenie ekonomiczne i społeczne. W klasycznym liberalizmie występowano przeciwko interwencjonizmowi państwowemu i etatyzmowi. Rola władzy zorganizowanej była minimalizowana. To jednostka była najważniejsza. W neoliberalizmie znaczną rolę w zapewnieniu równości i wolności obywatelom przypisuje się państwu. Nie ma tu już. klasycznej zasady, powołanej do życia przez Adama Smitha – laissez-faire, czyli zasady niewidzialnej ręki rynku. W neoliberalizmie to państwo kieruje gospodarką. Jest to program sterowania siłami ekonomicznymi w celu zapewnienia równości społecznej i sprawiedliwości.[1]

Drugi okres liberalizmu to adaptowanie się myśli do postulatów demokratycznych, przyjęcie podstawowych zasad demokracji politycznej, czyli: zasady suwerenności narodu, powszechne prawo wyborcze, ustrój parlamentarny. Ten liberalizm nazwano demoliberalizmem. Oczywiście ścisłe określenie granic między ideologią liberalizmu arystokratycznego a demokratycznego nie można określić konkretną datą, ale z biegiem czasu widać jak zakres akceptacji wartości demokratycznych wzrastał. Przede wszystkim można tutaj wskazać akceptację powszechnego prawa wyborczego.[2]

Warto zaznaczyć, że od ostatnich dekad XIX wieku do okresu powojennego występowały oznaki narastającego antyliberalizmu. I Wojna Światowa była ostateczną przyczyną rozbicia porządku liberalnego. Rozpoczęła się era wojen i tyranii.[3]

Ruchy nacjonalistyczne wyłoniły się wszędzie po upadku dawnych imperiów, a w Niemczech i Rosji doszły do władzy totalitarne reżimy co spowodowało zniszczenie wolności w prawie całym cywilizowanym świecie. Do lat trzydziestych XX wieku niewielu było myślicieli, którzy nie uważaliby się za krytyków liberalizmu. Do czasu wybuchu II Wojny Światowej wydawało się, że ideały liberalizmu „dożyły już swoich dni” .[4]

Po drugiej wojnie światowej, liberałowie przyswoili sobie szereg postulatów socjalistycznych z doktryn socjalizmu reformistycznego. Oznaczało to zwiększenie interwencjonizmu państwowego w zakresie opieki społecznej, objął on także wiele poczynań związanych z programem welfare state. To ten nurt jest nazywany liberalizmem socjalnym i stanowi największe przeobrażenia klasycznej myśli liberalnej.[5] Liberalizm socjalny zyskał na znaczeniu podczas wielkiego kryzysu gospodarczego lat trzydziestych. Dopuszczano tutaj, kosztem ograniczenia pełni wolności, interwencję państwa w mechanizmy wolnego rynku, aby dać zabezpieczenie socjalne najbiedniejszym.

Należy jednak zaznaczyć, że pomimo II Wojny Światowej i jej przyczynienia się do zwiększenia zakresu aktywności państwa we wszystkich dziedzinach życia, bezpośrednio po niej poważny wkład w życie intelektualne wnieśli myśliciele, którzy wierni byli liberalizmowi klasycznemu, nie rewizjonistycznemu czy zmodernizowanemu. Powracanie do klasycznego liberalizmu wyraźnie zyskało na sile w drugiej połowie XX wieku. Zaczęto głosić, że liberalizm jest pozbawiony sensu jeśli istnieje interwencjonizm państwowy.

Warto już w tym momencie, poświęcić chwilę na wspomnienie o pracy Friedricha Augusta von Hayeka zatytułowanej Droga do zniewolenia. Praca została napisana w roku 1944. Wyjątkowość pracy Hayeka polegała na tym, że postawił on w niej śmiałą tezę. Wbrew całej ówczesnej opinii, stwierdził, że korzenie nazizmu tkwiły od początku w myśli i praktyce socjalizmu. Ostrzegał on wyraźnie, że stosowanie przez narody Zachodu, socjalistycznych metod sprawowania władzy sprowadzi na nie nieuchronnie „karę totalitaryzmu”. [6] [7] Oczywiście tezy Hayeka były konsekwentnie ignorowane szczególnie w świecie anglojęzycznym. Jednak odegrały one ważną rolę w Niemczech. Wzmocniły nurt myśli neoliberalnej, która umożliwiła zniesienie mechanizmów kontrolnych w gospodarce, dzięki czemu mieliśmy do czynienia z powojennym cudem gospodarczym.

Dwudziestopięciolecie po zakończeniu II wojny światowej jest określane zwykle jako okres konsensu keynesowskiego. Po destrukcji jaką spowodowała II wojna światowa nastąpił czas gwałtownego wzrostu gospodarczego, który najbardziej widoczny był w krajach, w których porażka w konflikcie pozwoliła na gruntowna przebudowę państwa. Wtedy właśnie w roku 1960 Hayek opublikował pracę pt. Konstytucja wolności. Dzieło to oprócz wkładu do filozofii politycznej jest ważne, ponieważ zawiera rekonstrukcję głównych idei szkoły austriackiej, o której szerzej napisze w kolejnym rozdziale pracy. Hayek skonstruował teorię ekonomiczną, która zachowując podstawowe tezy ekonomistów klasycznych, poprawiała ich podstawowe niedoskonałości. Praca ta została doceniona dopiero w latach siedemdziesiątych wraz z rozpadem paradygmatu keynesowskiego. Wtedy to w Stanach Zjednoczonych, Ludwig von Mises, Murray Rothbard i Israel Kirzner dokonali przeformułowania założeń szkoły austriackiej.

W połowie lat siedemdziesiątych powrót do klasycznej teorii ekonomii spotkał się z uznaniem publicznym, czego wyrazem było przyznanie Hayekowi i Friedmanowi Nagrody Nobla.49 Później ich idee były wykorzystywane przez takie postacie jak Margaret Thatcher czy Ronald Reagan.


[1]  R. Tokarczyk,Współczesne doktryny polityczne, Zakamycze, Kraków 2006, s.15

[2]  R. Tokarczyk, Współczesne…, opr. cyt., s.66

[3]  J. Grey, Liberalizm, ZNAK, Kraków 1994, s. 50

[4]  J. Grey, Liberalizm, opr. cyt., s.51

[5]  B. Sobolewska, M. Sobolewski, Myśl… opr. cyt., s. 20

[6]  J. Grey, Liberalizm, opr. cyt., s. 52

[7]  J.Grey, Liberalizm, opr. cyt., s. 54

Formy płac

Do podstawowych form płac zaliczamy:[1]

  • Formy czasowe, wg których wynagrodzenie pracownika zależy od ilości przepracowanego czasu,
  • Formy akordowe, określające wysokość wynagrodzenia w zależności od wyników uzyskiwanych w pracy, mierzonych w jednostkach naturalnych lub wartościowych.

Do najczęściej stosowanych w praktyce form czasowych płac zalicza się:

  • Płaca dniówkowa zwykła, ustalana jako iloczyn liczby przepracowanych dni i stawki za dzień roboczy,
  • Płaca dniówkowa z premią, składająca się z płacy dniówkowej zwykłej (dniówka zadaniowa) i premii przyznawanej za realizację określonych zadań, często związanych z terminowością lub oszczędnością.

Według czasowych form płac, zazwyczaj opartych na stawkach miesięcznych, wynagradzani są najczęściej pracownicy umysłowi.

Do najbardziej znanych akordowych form płac zaliczane są:

  • Akord prosty, według którego wysokość płacy jest iloczynem liczby jednostek wyników pracy i stawki za jednostkę,
  • Akord progresywny, według którego stawka za kolejne jednostki wyników pracy powyżej przyjętego progu jest ustalana rosnąco, według jedno- lub wielostopniowej progresji,
  • Akord degresywny, przy jego zastosowaniu wysokość stawki za kolejne jednostki wyników pracy powyżej przyjętego progu maleje,
  • Akord pośredni, uzależniający wysokość wynagrodzenia danego pracownika od wyników pracy jego współpracownika,
  • Akord zespołowy, określający stawkę wynagrodzenia jako iloczyn wyników pracy zespołu i stawki za jednostkę, natomiast indywidualne stawki członków zespołu zależą zwykle od zaszeregowania i czasu pacy.

Często stawki akordowe zawierają dodatek (tzw. Zachętę akordową) umożliwiający przy założonej wydajności, uzyskanie przez pracowników wyższego wynagrodzenia oraz premie za realizację określonych zadań.

Płace obejmujące premię udziałową należą do bonusowych form wynagrodzeń. Formy akordowe silnie motywują do zwiększenia wydajności. Mogą być one stosowane w sytuacjach, w których możliwy jest precyzyjny pomiar wyników pracy oraz normowanie jej wydajności lub pracochłonności produkcji (najczęściej dotyczy to prac prostych i powtarzalnych). W przypadku prac złożonych dążenie do wzmożonego wysiłku na rzecz wzrostu wydajności mogłoby doprowadzić do pogorszenia jakości.

Do ograniczeń wykorzystywania tej formy wynagrodzeń zalicza się:[2]

  1. Dehumanizację pracy,
  2. Wysokie koszty normowania.

Obok płac akordowych, do różnych odmian systemów płac zmiennych, stosowanych w praktyce funkcjonowania przedsiębiorstw, należy liczyć udział w korzyściach i udział w zyskach.[3]

Udział w korzyściach stanowi grupowy system zachęt, w którym wielkość wynagrodzenia grupy za dany okres uzależniona jest bezpośrednio od wzrostu efektywności jej pracy w porównaniu z okresem poprzednim. Podstawowa inność tego systemu od systemu udziału w zyskach polega na tym, że nie uwzględnia on wpływu czynników zewnętrznych na efektywność – pracownik może otrzymywać wynagrodzenie, mimo, że przedsiębiorstwo nie osiąga zysku.

Interesującym rozwiązaniem, w ramach systemów zmiennych płac, silnie motywującym kadrę kierowniczą i pracowników do zainteresowania powiększaniem wartości przedsiębiorstwa w długim okresie, jest wypłacanie premii w akcjach imiennych, bez prawa ich sprzedaży przez określony czas, albo też przyznawanie prawa zakupu danej liczby akcji, w danym terminie, za określoną cenę.[4]


[1] Licharski str. 283

[2] Tamże, str.283

[3] Gruszczyńska, Malec 2001, str.80-81

[4] Licharski…str.284