Published using Google Docs
Cybernetyka ekonomiczna
Updated automatically every 5 minutes

Walery Wysoczański, Slavian Radev,

Igor Ogirko, Margaret Wirkus

CYBERNETYKA

EKONOMICZNA

2020


RECENZENT

Prof. dr hab. Włodzimierz Józefowicz ULw.

Adres redakcji:

Wyższa Szkoła Finansów i Zarządzania

ul. Sokołowska 172, 08-110 Siedlce

wydawnictwo@wsfiz.siedlce.pl

ISBN 978 ……………………………

Redakcja techniczna i korekta:

………………………..

Projekt okładki:

PRODESIGN ………………

Druk i oprawa: SPRINT Siedlce, M i J Dobrowolscy, 025 644 63 10

Walery Wysoczański, Slavian Radev,

Igor Ogirko, Margaret Wirkus

CYBERNETYKA AKYTENREBYC

«Laudato Si»

Warszawa-Sofia-Lwów

2020


SPIS TREŚCI

PRZEDMOWA

7

1

PRZETWARZANIE INFORMACJI I ZASTOSOWANIE SIECI NEURONOWYCH W CYBERNETYCE EKONOMICZNEJ

6

1. 1  

Zarządzania finansami z zastosowaniem modeli cybernetycznych

6

1. 2  

Ekonomia i ekologia polityczna antropocenu

8

1. 3

Zastosowanie sieci neuronowych w cybernetyce ekonomicznej

15

2

CYBERNETYCZNO-EKONOMICZNE MODELE MATEMA-TYCZNE AUTARKII ENERGETYCZNEJ W KONTEKSCIE EKOLOGII INTEGRALNEJ

17

Literatura do rozdziału  II

20

3

EKONOMIA MATEMATYCZNA

21

4

ISTOTA RYZYKA W ZARZĄDZANIU

26

4. 1

Pojęcie ryzyka przedsiębiorstwa

28

4. 2

Rodzaje ryzyka i jego charakterystyka

33

4. 2. 1

Miary ryzyka

35

4. 2. 2  

Znaczenie ryzyka

45

4. 3

Modele zarządzania ryzykiem w przedsiębiorstwie

46

4. 3. 1  

Model Sharpe’a

46

Literatura do rozdziału 4

49

5

BEZPIECZEŃSTWO EKONOMICZNE, MIARY I MODEL RYZYKA

Podstawowe wiadomości o ubezpieczeniach i ryzyku. Definicje ubezpieczenia.  Zmienne

50

6

PRZEGLĄD METOD NUMERYCZNYCH

60

6. 1

Metoda odcinkowa

60

6. 2

Metoda łuków

61

6. 3

Metoda wielomianowa Lagrange’a

61

7

CHARAKTERYSTYKA ZMIENNEJ ORAZ ZAKRES BADAŃ

61

8

METODY NUMERYCZNE W EKONOMETRII

86

8. 1

Metoda odcinkowa

87

Literatura do rozdziału 8

87

PODSUMOWANIE

88


PRZEDMOWA

Cybernetyka opiera się na przenoszenie zjawisk w biologiii do poznawania zagadnień techniczno-technologicznych, ekonomicznych a ostatnio do rozwiązywania nairóżnieszych zadań gospodarczych: finansowych, energetycznych, ekologicznych itp. Wiedzę, czerpaną z poznawania procesów zachowania się układów wysokiej samosterownośći, a takim jest przykładowo organizm człowieka, przenoszono na układy i systemy technicny, ekonomiczne, wojskowe.

Często definiowana jako nauka, cybernetyka już blizko stulecia jako dział wiedzy o możliwości sterowania procesami społeczno-gospodarczymi a przed tym w kierowaniu układami i systemami technicznymi służy skutecznie człowiekowi. Jeżeli ma przy tym mocny fundament, opiera się nie tylko na filozofie, ale na fizykę, matematykę w jakimś jej przyłożeniu, to wtedy możemy ją rozumieć jaką naukę w konkretnym, wązkim znaczeniu. Na poziomie zastosowania cybernetyki w ekonomi, raz gorzej raz lepije pomaga ona w zarządzaniu finansami. Na skale nawet jednego państwa, nie mówiąc już o skali światowej, w pobudowie modeli prognostycznych, warto z niej korzystać. Teraz cybernetyka ma kolejne wyzwania. Strach utraty suwereności finansowej narasta nie tylko dla państw postkomunistycznych ale i tych, którzy mieli najstarsze na świecie waluty. Nie tylko Grecja jest tego przykładem. Finansowe problemy doprowadzają państwa do procesów inflacyjnych, defołtu itp.

Powoduje to poszukiwania indywidualnych rozwiązań poprzez przejaw autorytaryzmów a nawet i pojawienie się faszyzmów, komunizmów oraz innych -izmów.

Żaden model ani rynkowej ani planowanej gospodarki nie jest czegoś warty, jeżeli nie jest budowany na twardej suwerennej polityce finansowo-energetycznej. Ona gwarantuje bezpieczeństwo ontologiczne, ekologiczne, w końcu gospodarczą stabilność państwa. Niema co martwić się o bezpieczeństwo energetyczne dla tych państw, które wiedzą co to jest naukowe zarządzanie ryzykiem przy eksploatacji systemów energetycznych.

Niezawodność konstrukcyjna, technologiczna formująca niezawodność eksploatacyjną, zresztą dołaczana do nich niezawodność organizacyjna na początkowych stadiach tworzenia tych systemów, jest dobrze rozpracowana z pozycji matematyki klasycznej. Od wagi naukowej, metodologicznych aspektów diagnostyki tych systemów zależy bezpieczeństwo ekologiczne. Zwane ono nieraz niezawodnością ekologiczną.

Nieodłącznym elementem gospodarki rynkowej jest optymalno-bezpieczne zarządzanie finansami w celu jak zmniejszenia do minimum ryzyka bankructwa, tak i podwyższenia bezpieczeństwa ekologicznego gospodarki narodowej. Modelując procesy gospodarcze z zastosowaniem wiarygodnego aparatu matematycznego, rozważać możemy nawet i o autarkii energetycznej państwa. W tym jest cel zapewnienia suwerenności gospodarczej i finansowej oraz innych ważnych aspektów bezpieczeństwa państwa.

Zagadnienie suwerenności finansowo-gospodarczej jest o tyle istotne, że nawet najmniejszy błąd w systemie decyzyjnym może przyczynić się do wysokich strat nawet bankructwa nie tylko oddzielnego przedsiębiorstwa. Aby uniknąć zagrożenia straty suwerenności gospodarczej i finansowej, oszacować należy ryzyko, które pojawia się w każdej wykonywanej czynności. Towarzyszy ono nawet i codziennej naszej działalności.

W skali gospodarki krajowej, umiejętność stosowania matematyki, w tym i dyskretnej, dla uzyskania efektów gospodarczych, staje się konieczną. Mądrość zarządzania opiera się na diagnostykę parametrów, na kontroli i zabezpieczania się przed występującym zagrożeniem. Wiedza o zagrożeniach szczególnie ważna dla managerów przedsiębiorstw. Nieodpowiednio podjęta decyzja może skutkować pojawieniem się niepożądanych skutków, tj. poniesieniem bardzo wysokich strat i nie tylko materialnych. Firmy, niestety, kierują się zazwyczaj na zyski materialne, na pomnażanie kapitału, w uzyskania największej rentowności. W energetyce, jak pokazuje analiza największych awarij i katastrof stacji atomowych, megarurociągów (gazociągów, ropociągów itp.) chęć uzyskania wydajności i zysków winduje globalne zagrożenie. Nawet dla Japonii, Niemiec innych państw, dbających oswój po strasznych stratach w ostatniej wojnie, bezpieczeństwo staje się kruche, bo zagrożenie katastrof i awarii niestety narasta.

Autorami przeprowadzona głęboka analiza awarii i katastrof obiektów strategicznych, a są takimi mega rurociągi, stacji atomowe. Podano konkretne przykłady materialnych i moralnych strat. Zauważyć należy, że jak pokazują awarii stacji tomowych na Ukrainie i w Japonii, i kapitalizm i socjalizm nie jest kluczem do tworzenia spokojnego życia, w tym i dla państw rozwiniętych technicznie. Opracowanie nasze daje możliwość zrozumieć stan spraw i nie jest panaceją na leczenie schorzeń i chorób finansowo-gospodarczych. Jedno jest ważnym: mus zachować rozsądek, racjonalnie podchodzić do podejmowanych decyzji, aby uzyskać oczekiwane korzyści materialne, nie tylko natychmiast. Opierając na matematyczny punkt widzenia możemy zapewnić, że istnieje możliwość oszacowania skali ryzyka, co powoduje użyteczność naszych algorytmów.

Autorzy prześladowali cel, aby była ona poświęcona matematycznym modelom zarządzania ryzykiem. Rozważano nad zasadniczym pytaniem: czy może sztuczna inteligencja w zarządzaniu ryzykiem stać się kannibalem, czyli zeżreć inteligencje ludską. Jeżeli człowiek będzie rozumiał, że od informacionistyki do informasionistyki mały kroczek, i te same ludzi tworzyli bombę atomową i stacje atomową, to nigdy cybernetyka nie zniszczy cywilizacje. Jak to nam nie radować się, że Papież Franciszek w Laudato SI niedawno wygłosił przeciwko podejściu Platonowskiemu:

,,Równie konieczny jest otwarty i przyjazny dialog pomiędzy różnymi ruchami ochrony środowiska, nie brakuje bowiem między nimi walk ideologicznych.

Powaga kryzysu ekologicznego wymaga od nas wszystkich myślenia o dobru wspólnym i podążania drogą dialogu, wymagającego cierpliwości, ascezy i wielkoduszności. Zawsze pamiętajmy, że «rzeczywistość jest ważniejsza od idei». (Laudato si. 201).

Książka może być wykorzystywana ekonomistami, tak i ekologami, macharakter naukowo-badawczy. Może służyć rozwiązywaniu problemów w autarkii energetycznej. Naukowcy i studenci będą zainteresowani nią i mogą mięć pożytek z zastosowania. Może ona stać się narzędziem w tworzeniu modeli prognostycznych.

Cel - przedstawienie problemu stosowania podejść cybernetycznych w technice, ekonomii oraz innych sektorach życia publicznego. Zarządzania ryzykiem podano jak strony teoretycznej, ale przede wszystkim, wdrażania w praktykę. Zachęcamy do lektury.


1  PRZETWARZANIE INFORMACJI I ZASTOSOWANIE SIECI NEURONOWYCH W CYBERNETYCE EKONOMICZNEJ

1. 1  Zarządzania finansami z zastosowaniem modeli cybernetycznych

Racjonalne planowanie finansów jest jednym z kluczowych aspektów nie tylko zarządzania finansami, ale zarządzania organizacją w ogóle. Warto więc, choćby krótko, odpowiedzieć na pytanie, czemu służy planowanie finansów w organizacjach pozarządowych. Mówiąc najkrócej proces ten służy planowaniu dochodów, które pozwolą na pokrycie kosztów zakładanych do realizacji działań. Warto przy okazji, pomyśleć o środkach finansowych z działalności gospodarczej, które pozwalają nam generować zysk. Z kolei wypracowany zysk daje organizacjom możliwość inwestowania środków, a tym samym budowania stabilności finansowej.

Planowanie, czy też monitoring finansów prowadzony na bieżąco daje możliwość minimalizowania kosztów aktualnych oraz planowanych działań. Planowanie uświadamia ile kosztuje nasza aktywność, ale też pomaga w poszukiwaniach potencjalnych oszczędności. Dotychczasowe doświadczenia pokazują, że środki z dotacji mogą spływać ze znacznymi opóźnieniami. Zarazem podatki, wynagrodzenia, ubezpieczenia społeczne jak również szereg innych zobowiązań należy regulować na bieżąco. Dlatego też bardzo ważnym aspektem jest zaplanowanie przepływów finansowych. Wyzwaniem pozostaje więc utrzymanie płynności, tym bardziej że w naszym kraju fundusze kredytowe dla przedsiębiorstw społecznych są dopiero tworzone.

Działalność organizacji pozarządowych to też konieczność posiadania kompetentnej kadry, która jest główną wartością organizacji. Planowanie finansów uświadamia i zmusza do organizacje pozarządowe do określenia możliwych rozwiązań związanych z ciągłością i wysokością kosztów zatrudnienia. Organizacje pozarządowe działają metodą projektową, aby sfinansować planowane projekty muszą wypełnić wiele wniosków o dotację. Różnorodne źródła finansowania to planowanie nie tylko skąd czerpać środki finansowe, ale także konieczność ich montowania merytorycznie i księgowo.

Dla tego aby planowane działania i pozyskane środki finansowe tworzyły spójną całość. Możliwości finansowania działań organizacji pozarządowych jest wiele. Warto tu wyróżnić m.in. takie źródła finansowania działań, jak:dotacje (w tym że środków unijnych),sprzedaż w ramach działalności odpłatnej lub gospodarczej,1% z podatku,zbiórki publiczne,składki członkowskie,darowizny,sponsoring,spadki,organizacja loterii,lokaty. Każda z tych form wymaga posiadania szeregu kompetencji prawnych, finansowych, marketingowych, socjologicznych, zarządczych.

Istnieje jednak wsparcie w gąszczu tych zasad, w tym w szczególności warto podkreślić działalność Ośrodków Sieci Wspierania Organizacji Pozarządowych SPLOT (www.siecsplot.pl), które na terenie całego kraju prowadzą bezpłatne poradnictwo, szkolenia dla organizacji pozarządowych. Realizacja projektów nie zawsze musi bazować na przychodach finansowych.

Doświadczenia organizacji pozarządowych pokazują, że niemałe korzyści można pozyskać dzięki tzw. współpracy niefinansowej. Okazuje się, że odpowiedzią na szereg wyzwań finansowych, może być współpraca podmiotów w formie porozumień, sieci współpracy, klastrów. Wiele organizacji nieodpłatnie korzysta też z bazy lokalowej gminy, promocji w lokalnych mediach, pomocy eksperta. Prawdopodobnie wszystkie organizacje pozarządowe korzystają z zaangażowania wolontariuszy. Planowanie finansów może i powinno obejmować też aspekt wkładu rzeczowego (niefinansowego) w realizowane działania.

Zarządzanie finansami wiąże się z obsługą rachunkową organizacji, nierzadko księgowość fundacji bądź stowarzyszenia prowadzącego działalność gospodarczą jest bardziej rozbudowana aniżeli firmy biznesowej. Dlatego, zadanie to warto powierzyć osobie posiadającej odpowiednie kwalifikacje oraz doświadczenie w pracy z organizacjami pozarządowymi. Odpowiedzialność za prowadzenie księgowości, zgodnie z przepisami, ponosi jednak zawsze kierownik danej jednostki np. zarząd w przypadku stowarzyszeń

Planowanie finansów w organizacji pozarządowej, szczególnie tej prowadzącej działalność gospodarczą to ogrom wyzwań. Warto korzystać w tym aspekcie z różnych doświadczeń i profesjonalnych narzędzi. Narzędzie Zarządzania Rozwojem Organizacji Pozarządowych, wypracowane przez Stowarzyszenie BORIS we współpracy z Siecią Wspierania Organizacji Pozarządowych SPLOT zachęca do analizy zarządzania finansami w następujących kontekstach:

W ramach modelu zarządzania przedsiębiorstwem społecznym, który jest wypracowywany przez Centrum PISOP, również znalazło się narzędzie, które ma wesprzeć organizacje pozarządowe w bieżącym zarządzaniu finansami. Narzędzie pozwoli zestawić koszty stałe i te związane z prowadzonymi działaniami z planowanymi wpływami środków finansowych z różnych źródeł, monitorować płynność finansową, analizować finanse na przestrzeni lat oraz wyliczać koszty związane z prowadzoną działalnością gospodarczą. Więcej o modelu znajduje się na stronie www.pisop.org.pl w zakładce Biznes Innowacje NGO, czyli BINGO.

Planowanie i zarządzanie finansami, tworzenie planów finansowych, zapewnianie płynności finansowej zaprząta „głowę” niejednej organizacji pozarządowej. Warto jednak systemowo podejść do zarządzania finansami, co z pewnością przełoży się na stabilność funkcjonowania organizacji.

Cybernetyka analizuje analogie między zasadami działania organizmów żywych, układów społecznych (społeczności) i maszyn (holizm), odkrywa ogólne prawa wspólne dla różnych nauk i umożliwia przenoszenie tych praw z jednej dziedziny na drugą; jest więc nauką interdyscyplinarną, znajdującą wiele zastosowań praktycznych. Uznaje się ją często za jeden z nurtów w tzw. badaniach systemowych.

Cybernetyka wysunęła i przetestowała hipotezy, które nawiązały do wielowiekowego marzenia scalenia nauk humanistycznych oraz ich stopniowego złączenia z naukami przyrodniczymi i naukami o życiu. To połączenie było rozważane na wiele sposobów: Claude E. Shannon preferował ujęcie matematyczne, natomiast Norbert Wiener proponował stawianie nauki o maszynach i biologię naprzeciw fizyce. Akurat tego wybitnego amerykańskiego matematyka  uważamy za twórcę cybernetyki, jako samodzielnej dyscypliny naukowej. Jego praca Cybernetics or Control and Communication in the Animal and the Machine, wydana w 1948 roku, jest klasycznym dziełem w tej dziedzinie. Wiener dowiedział się o tym, że termin Cybernetyka został wcześniej zaadaptowany przez Ampera dopiero po wydaniu tej pracy. Jej tytuł „Cybernetyka czyli sterowanie i komunikacja w zwierzęciu i maszynie” był przez wielu autorów traktowany jako pierwsza definicja cybernetyki.

Cybernetyka ma zastosowanie w systemach, w których przypływ informacji tworzy zamknięte pętle — pętle w relacjach przyczynowo–skutkowych — a więc tam, gdzie działania systemu powodują zmianę w jego środowisku, a zmiana ta następnie oddziałuje wtórnie na ten system (relacje wtórne/sprzężenie zwrotne). Ze względu na powyższe cybernetyka ma bardzo szerokie zastosowanie w wielu odrębnych systemach i w różnych dziedzinach nauki, takich jak fizykabiologia, nauki kognacyjne czy nauki społeczne.

Cybernetyka ma na celu zrozumienie funkcji i procesów w systemach, których działanie dąży do określonego celu. System ten posiada relacje wtórne, dzięki którym jest zdolny do tworzenia przyczynowo–skutkowego łańcucha. Działanie takiego systemu może być opisane przy pomocy uproszczonego szeregu skutkowego — akcja/interakcja, obserwacja, refleksja (np. porównania rezultatów z pożądanym rezultatem) i ponowne działanie.

Cybernetyka zajmuje się studiowaniem: procesów poznawczych, mechanizmów odpowiedzialnych za uczenie się i analizę oraz takich pojęć jak adaptacja, kontrola społeczna, skuteczność, łączność, wydajność, konwergencja i sprzężenia zwrotne[3]. Pojęcia te są obiektem zainteresowań również innych dyscyplin, takich jak biologia, fizyka, chemia czy innych nauk, jednakże w zakresie cybernetyki są one rozpatrywane niezależnie od kontekstu organizmu czy urządzenia. Tego typu abstrakcja umożliwia stworzenie ogólnego formalizmu.

Cybernetykę można podzielić na dwie gałęzie:

cybernetykę teoretyczną, która bada ogólne zasady działania systemów bez odwoływania się do konkretnych obiektów fizycznych. Powstała na pograniczu biologii i matematyki, czerpiąc z wielu odrębnych dziedzin jak: logika matematyczna, teoria sterowania, teoria regulacji, teoria systemów, teoria informacjiinformatyka, teoria gier, teoria decyzji, teoria automatów abstrakcyjnych, prakseologia, teoria sieci neuronowych;

cybernetykę stosowaną, która zajmuje się praktycznymi zastosowaniami ogólnych praw cybernetyki teoretycznej. Jej najważniejsze działy to: cybernetyka techniczna  (technocybernetyka) – automatyczne sterowanie maszynami, procesami technologicznymi, cybernetyka ekonomiczna – automatyzacja i optymalizacja diagnostyki, planowania i zarządzania, cybernetyka społeczna  (socjocybernetyka) – wykorzystanie praw cybernetyki w naukach społecznych,

1. 2  Ekonomia i ekologia polityczna antropocenu

Podsumowanie to powstało w czasie, gdy nie tylko przez Europę przetaczała się fala rekordowych upałów, zbierając tragiczne żniwo. Gwałtowne pożary w Grecji kosztowały życie dziesiątki osób. Strażacy mówili, że ofiary nie miały żadnych szans na ratunek.

Naukowcy, zazwyczaj wstrzemięźliwi w łączeniu anomalii pogodowych z procesami o charakterze makrotrendów, tym razem nie mieli wątpliwości, że tegoroczne wysokie temperatury i związane z nimi zjawiska pogodowe są w dużej mierze wywołane przez zmianę klimatu i globalne ocieplenie. Innymi słowy, zjawiska ekstremalne stają się nową normą, choć przecież średni wzrost temperatur atmosfery powyżej poziomu przedprzemysłowego osiągnął dopiero 1 st. C.

Porozumienie Paryskie zawarte w 2015 r. podczas Szczytu Klimatycznego COP21 jako pożądany cel stawia ograniczenie wzrostu temperatury do 1,5 st. C, a poziom 2 st. C uznaje za nieprzekraczalny. Problem w tym, że deklaracje ograniczenia emisji gazów cieplarnianych państw - stron porozumienia (NDC - Nationally Determined Contributions) sumują się do zaledwie 1/3 potrzebnych redukcji dla celu 2 st.C.

Z pytaniem tym przystąpiliśmy do programowania seminarium zorganizowanego przez Instytut Studiów Zaawansowanych Krytyki Politycznej i Fundację im. Heinricha Bölla w Warszawie. Kuratorem cyklu, na który złożył się cykl sześciu spotkań, był Edwin Bendyk wspierany przez Adama Ostolskiego. Tytuł „Geo-polityka nad Wisłą.

Jak odzyskać Ziemię i przyszłość w czasach kryzysu ekologicznego?” ujawnia ważne źródło inspiracji - pracę francuskiego filozofa i socjologa Bruno Latoura, twórcę koncepcji Polityki Natury oznaczającą konieczność przebudowy sceny politycznej, by włączyć w sferę demokratycznej reprezentacji także aktorów nie-ludzkich.

W najnowszym swym opracowaniu „Où atterrir? Comment s'orienter en politique” Latour umieszcza koncepcję Polityki Natury w kontekście Nowego Reżimu Klimatycznego. Tym pojęciem uczony określa sytuację, w której dyskurs klimatyczny nie prowadzący do realnych działań przeciwdziałających globalnemu ociepleniu jest w istocie ramą definiującą reżim akumulacji kapitału postindustrialnego, zglobalizowanego kapitalizmu.

Latour przekonuje, że jedynym sposobem jest „wylądowanie” - oderwanie się od abstrakcyjnych kategorii, takich jak globalizacja i odzyskanie ziemi w jej konkretnym kształcie, w wymiarze lokalnym i światowym. Drugiej ważnej inspiracji dostarczył proces walki z zanieczyszczeniem powietrza w Polsce.

Latour ujawnił, że nawet tak wydawałoby się łatwe do zdefiniowania zjawiska, jak smog i zanieczyszczenie powietrza, stwarzają problemy wymagające złożonych systemowych działań, uwzględniających kontekst technologiczny, społeczny, ekonomiczny, kulturowy. By podołać temu wyzwaniu, potrzebne jest zaangażowanie i współpraca wielu aktorów działających na różnych poziomach organizacji struktury społecznej. Tak więc potrzebne są interwencje władzy centralnej, zaangażowanie władz samorządowych różnych szczebli, aktywność organizacji społecznych, etc.

Oczywiście bezpośrednią inspiracją do zorganizowania spotkań pod hasłem geo-polityki nad Wisłą stał się Szczyt Klimatyczny ONZ COP. w Katowicach. Ochrona klimatu jest bardzo złożonym tematem, i naokoło niego powstaje nowa religia. Jest to kolejne wyzwanie dla nauki. Tylko weryfikacja empiryczna modeli proponowanych różnymi spekulantami sprytnymi w marketingu pozwolą uwolnić naukę od tej religii.

Mając na uwadze ten problem, zaproponowaliśmy tematykę spotkań, która miała podejmować najważniejsze węzłowe zagadnienia dotyczące zmian lokalnych klimatu, aby podczas spróbować dokonać syntezy i zaproponować rekomendacje w kierunku ekologii integralnej. Seminarium miało na celu rodzaj remanentu stanu wiedzy o zmianach klimatu Ziemi. Jak dobrze wiemy, wiedza o klimacie jest wynikiem ustaleń wielu szczegółowych dyscyplin naukowych. Wiedza ta ma charakter względny, ma charakter systemowy. Nie daje się tutaj sprowadzić do prostych zależności między konkretnymi pojedynczymi przyczynami i ich skutkami.

Owszem, istnieje jakby konsensus naukowy odnośnie głównych przyczyn wzrostu temperatury atmosfery. Niktnie wie, jaka jest odpowiedzialności za ten wzrost negatywnych wpływów i działalności człowieka. I zapytanie zasadniczy: czy realnym jest stworzenie modelu termodynamicznego kuli ziemskiej. Wiadomo, że ani temperatura jak i energia nie może być zmaterializowaną. Jeżeli fizycy nie wiedzą co to jest masa, w ujęciu kosmicznym, to skąd jakieś zateretyzowany biedak fizyk może pouczać co to jest energia?

Konsensus ten jest wynikiem akumulacji wiedzy szczegółowej i jej syntezy w ramach nie tylko działania systemu nauki, ale także w ramach procesu klimatycznego. Jedną z najważniejszych instytucji tego procesu jest Międzyrządowy Panel ds. Zmian Klimatycznych (IPCC). Na ile naukowym jest jego działanie?

Podkreślić należy, że jest on odpowiedzialny za przygotowanie okresowych raportów, syntetyzujących aktualny stan wiedzy. Na ile możno wierzyć diagnostycznym modelom, podłożu matematycznemu, naukowości wiedzy i czy są wiarygodnymi wynikające z tej wiedzy scenariusze oraz rekomendacje.

Jedna z prezentacji na seminarium w Katowicach, pokazała, że nawet w gronie osób naukowo zaangażowanych w sprawy środowiskowe i klimatyczne, jest mocno niepełny. Zwłaszcza w jednym aspekcie -- przekładania danych naukowych na konkretne realia, które można komunikować. Mimo tych wszystkich zastrzeżeń najważniejsza konkluzja tego spotkania brzmiała: stosując odpowiednią retorykę i argumenty, można wywołać u uczestników procesu komunikacyjnego zmianę świadomości i gotowość, przynajmniej deklaratywną, do działania.

Problem jest jednak ze skalowaniem procesu „uświadamiającego” - komunikacja w otwartej sferze publicznej oparta jest na logice mediów popularnych oraz internetu. W rzeczywistości tej mieszają się rejestry: media wiedzione zasadą pozornej obiektywności dają równy głos ekspertom klimatycznym i sceptykom, mimo że w dyskursie naukowym głos sceptyków nie ma istotnego znaczenia. Jednocześnie Internet ułatwia sianie wątpliwości, dyskredytowanie adwersarzy i szerzenie „fake news”, co jest główną metodą działania tzw. denialistow klimatycznych. Czy to może zły duch działa przez Internet?

Główna rekomendacja wyraża się w postulacie jak najszerszego uspołecznienia wiedzy o środowisku i klimacie. Chodzi nie tylko o dostęp do wiedzy wytwarzanej przez naukowców i instytucje nauki, lecz także o włączenie jak największej liczby osób w wspólne wytwarzanie tej wiedzy i jej upowszechnianie, tak by związać abstrakcyjny przekaz naukowy z konkretem osobistego doświadczenia. Zaangażowanie w lokalne pomiary temperatury, zanieczyszczenia powietrza, stanu lasu, etc. ułatwia „ucieleśnienie” wiedzy, co z kolei jest niezbędnym elementem mobilizacji do działania.

Drugie spotkanie miało za zadanie problematyzację wiedzy o zmianach klimatycznych i środowiska, rozszczelnienie abstrakcyjnego, obiektywistycznego dyskursu naukowego przez wprowadzenie perspektywy krytycznej, osadzającej dyskurs środowiskowy w krytyce kapitalizmu. Doskonałym punktem wyjścia do takiej problematyzacji jest pojęcie antropocenu, które zyskuje coraz większe uznanie w środowiskach naukowych. Wyraża ono sytuację historyczną, w której człowiek stał się głównym czynnikiem zmian o charakterze geoekosystemowym. Najbardziej spektakularnym wyrazem tej siły człowieka jest antropogeniczna zmiana klimatyczna.

Krytycy pojęcia antropocenu, jak Jason W. Moore, zwracają uwagę, że utrwala ono schemat myślenia, który doprowadził do sytuacji, jaką pojęcie antropocenu opisuje. Ten schemat wywodzi się z początków nauki nowożytnej i polega na odseparowaniu świata nauki od rzeczywistości przez naukę badanej, i szerzej - separacji świata kultury od świata natury. Tymczasem, jak podkreśla Moore, sytuacja antropocenu jest wynikiem działania konkretnych sił społecznych, a nie abstrakcyjnego człowieka.

Powstaje pytanie do naukowców , czy to do współczesnego kryzysu doprowadził kapitalizm i jego logika akumulacji zasilanej eksploatacją tanich zasobów pracy, środowiska, troski, żywności. Odpowiedź okazuje się bardziej złożona, bo jeśli charakterystyka systemowa przedstawiona przez Moore’a i opisująca logikę działania mechanizmu akumulacji jest choć po części słuszna, to oznacza to, że próba rozwiązania kryzysu ekologicznego przez „zieloną modernizację” kapitalizmu może przynieść skutek, ale tylko kosztem wzrostu nierówności i opresji. Zielona modernizacja to nic innego, jak nowy reżim akumulacji w warunkach końca tanich zasobów, które trzeba będzie pozyskiwać przemocą.

Celem tego spotkania było uświadomienie, że złożony kontekst zmiany klimatu wymaga nie tylko znajomości zobiektywizowanej wiedzy o problemie, ale także mechanizmów systemowych odnoszących się do kwestii politycznych i gospodarczych w kontekście kapitalizmu. Analiza kryzysu ekologicznego i procesu klimatycznego w tym kontekście pokazuje, że cele środowiskowe mogą być w konflikcie z celami społecznymi, równościowymi, emancypacyjnymi, a dyskurs klimatyczny może być dyskursem opresji.

Podczas tego spotkania zmieniliśmy perspektywę i sięgnęliśmy do konkretu -- doświadczenia działania w konkretnej przestrzeni społecznej konkretnego miasta, w tym przypadku Katowic i Warszawy. Patryk Białas, aktywista Alarmu Smogowego i Stowarzyszenia przedstawił dynamikę indywidualnego zaangażowania w sprawy środowiska. Opowieść o przechodzeniu od sytuacji osobistego gniewu i wywołanej nim woli działania po narastającą świadomość polityczną doskonale wpisywała się w opisywane przez współczesnych socjologów mechanizmy mobilizacji społecznej.

W zindywidualizowanym społeczeństwie najczęściej pierwsze motywy mają charakter prywatnego gniewu wynikającego z osobistej niezgody na zagrożenie lub niesprawiedliwość, dla których nie ma uzasadnienia. Takim powodem może być np. zanieczyszczenie powietrza grożące zdrowiu własnemu i osób bliskich.

To wystarczający powód, by motyw prywatny spróbować uspołecznić i przez działanie podjęte indywidualnie ujawnić innych ludzi myślących podobnie. Jak pokazuje Manuel Castells w „Sieciach nadziei i oburzenia”, działanie społeczne rozpoczyna się od mobilizacji sieci neuronów w umysłach pojedynczych osób, a następnie synchronizację tych indywidualnych mobilizacji poprzez wykorzystanie zarówno afektu, jak i wymiany wiedzy.

Cała sztuka polega na tym, żeby kolejne etapy mobilizacji: od pierwszych emocji przez pierwsze, sprywatyzowane jeszcze działanie po działanie zbiorowe stabilizować stawiając konkretne cele, tworząc struktury o własnej dynamice działania, wzmacniając wagę działania przez wpisanie go w logikę lokalnego procesu politycznego, czy wręcz bezpośrednie zaangażowanie w lokalną politykę jako najskuteczniejszy sposób realizacji postulatów.

Izabela Jakubczyk pokazywała, analizując warszawski program adaptacji do zmian klimatu, jak wygląda proces mobilizacji do działania struktury miejskiej. Wypowiedź ta uzupełniała relację Białasa w komplementarny sposób pokazując, że miasto jest zdolne do działania, wymaga jednak odpowiedniej stymulacji zarówno przez odwołanie do zobiektywizowanej wiedzy, jak i presji ze strony zaangażowanych mieszkańców.

Analizując możliwości podejmowania adekwatnych działań przez struktury władzy lokalnej należy pamiętać, że miasto (samorząd) nie jest jedynie strukturą merytokratyczną, mającą podejmować jedynie słuszne działania w oparciu o obiektywną wiedzę, lecz jest także strukturą polityczną, w której konkretne działania są wypadkową gry interesów, sporów o definicję interesu ogólnego i dobra publicznego. Dlatego właśnie tak ważne jest zaangażowanie społeczne na różnych polach: od prywatnych akcji niezgody przez interwencje artystyczne po zaangażowanie polityczne.

Proces klimatyczny koordynowany w ramach Ramowej Konwencji ds. Zmian Klimatu ONZ w odróżnieniu od wielu innych specjalistycznych procesów w ramach ONZ ma wymiar geopolityczny. To tym właśnie różni się np. od procesu, jaki doprowadził do podpisania Protokołu Montrealskiego w sprawie dziury ozonowej i eliminacji z użycia freonów. Różnica ta jest zasadnicza, mimo strukturalnych podobieństw.

W przypadku dziury ozonowej chodziło o to, by wypracować polityczną zgodę na usunięcie źródła problemu. Pozornie o podobne działanie chodzi w procesie klimatycznym - redukcję gazów cieplarnianych. Tyle, że gazy cieplarniane i wywołana przez nie zmiana klimatu nie tyle jest problemem, co symptomem problemu, jakim jest struktura współczesnej gospodarki i związanych z nią interesów ekonomicznych, politycznych oraz uwarunkowań społecznych i kulturowych.

Logika procesu geopolitycznego jest inna niż dyskursu czysto merytorycznego, nastawionego na uzyskanie celów technicznych, a nie politycznych. Szczyt Klimatyczny w Kopenhadze w 2009 r. poniósł klęskę z wielu względów, powód najważniejszy - próbę narzucenia nowego ładu klimatycznego, a więc i geopolitycznego wziął na siebie aktor o zbyt małym kapitale politycznym. Ani Dania, ani komisarz Connie Hedegaard, nawet przy wsparciu Unii Europejskiej, nie miały szansy na sukces w nowym, dynamicznym kontekście międzynarodowym naznaczonym kryzysem gospodarczym 2008 r.

Porozumienie Paryskie uznać należy za polityczny i dyplomatyczny sukces, mimo że w sensie merytorycznym daleko do uzyskania satysfakcjonujących efektów środowiskowych. Stawką procesu geopolitycznego jest jednak co innego - negocjacja i stabilizacja ładu światowego, by uniknąć wojny. Patrząc z tej perspektywy należy traktować Porozumienie Paryskie jako otwarcie nowej ery relacji międzynarodowych opartych na zasadzie współzależności, a nie dominacji.

W wymiarze konkretnym, odnoszącym się do ochrony klimatu, nie zapewnia ono wystarczających działań, ale daje szansę na stworzenie pokojowego parasola na czasy post-hegemoniczne, co z kolei otwiera możliwości zaangażowania innych aktorów w rzeczywiste rozwiązanie problemu. Ważnym aspektem szczytów klimatycznych i w tym i COP24 w Katowicach dają możliwość spotkania różnych interesariuszy procesu.

Politycy, przedsiębiorcy, aktywiści uczestniczą u wzajemnym transfer emocji, wiedzy, oczekiwań. Nie ma jednak co się łudzić, że COP 24, czy jakiekolwiek porozumienie międzynarodowe, rozwiąże tak złożony problem jak kryzys klimatyczny, będący de facto kryzysem postindustrialnego kapitalizmu, zaniedbań wywołanych gospodarką komunistyczną jeszcze w większym wymiarze. Nikt nie wie jak to poprawić. Obowiązek i odpowiadalność jednak jest na plecach poważnych naukowców, czyli nie tak filozofów, jak fizyków, chemików, matematyków.

Inspiracją do tego spotkania była encyklika „Laudato si’” papieża Franciszka. Stanisław Jaromi, franciszkanin zaangażowany w sprawy środowiska, przypomniał, że spotkaliśmy się dokładnie w trzecią rocznicę opublikowania papieskiego dokumentu (oficjalnie został ogłoszony nieco później). Encyklika zwana ekologiczną jest kontynuacją myśli ekologicznej poprzednich papieży i jednocześnie je radykalizuje. Papież Franciszek wzywa do śmiałej rewolucji kulturowej w duchu ekologii integralnej. Ekologia integralna polega na myśleniu całościowym, w którym sprawy środowiska wpisane są w sprawy sprawiedliwości i równości.

Celem spotkania nie była jednak dyskusja o encyklice, tylko pytanie, jak doprowadzić do zmiany społeczno-kulturowej niezbędnej do tego, by sprostać wyzwaniom ochrony klimatu przedstawionym wyraźnie już podczas pierwszego spotkania. Stawką jest zmiana stylów życia i przestawienie się z hiper-konsumpcjonizmu na zrównoważony sposób życia. Dyskusja pokazała, że istnieje duże pole do poszukiwania języków i narzędzi tłumaczenia wartości na konkretne działania. Pomocna w tym przekładzie na pewno jest i będzie wiedza o procesach poznawczych, którą relacjonował psycholog społeczny Adrian Wójcik.

Na podstawie swoich badań zwraca uwagę, że Polacy wykazują dużą świadomość skutków zmiany klimatu, popierają deklaratywnie działania polityczne na rzecz ochrony klimatu i rozwój odnawialnych źródeł energii, nie widząc przyszłości dla węgla. Jednocześnie jednak realne działania na rzecz ochrony klimatu nie są najważniejszym priorytetem, ustępując innym, pilniejszym sprawom.

Jest to jednak całkiem niezła podstawa do poszukiwania skutecznych sposobów działania. By odniosły one sukces, rzecznicy działań na rzecz ochrony klimatu muszą wyjść ze swoich nisz poznawczych, muszą też odideologizować swoje argumenty w jak największym stopniu przekładając je na język praktyki, konkretu, neutralnego ideowo interesu z pokazaniem, że nie jest on sprzeczny z wyznawanymi wartościami.

Właśnie zagrożenie destabilizacją jest także szansą. Trump może jedynie przyspieszyć proces, w jakim ludzkość znajduje się od jakiegoś czasu - Zygmunt Bauman w ostatnich latach swego życia pisał dużo o interregnum. To moment, w którym stary ład wyczerpuje się, nowy jeszcze nie powstał, ale rodzi się w bólach, często o patologicznym wyrazie.

Mamy czasy, kiedy otwiera się pole możliwości dla nowych pomysłów, dla semiozy nowego opisu świata, dla wspomnianej rewolucji kulturowej. Nie jest ona przesądzona, jak nigdy jednak zyskuje ona szansę powodzenia. Zależność sukcesów będzie od sumy działań na wszystkich omawianych podczas seminarium polach. Zależeć od tego, czy uda się budować dobre relacji gospodarcze.

Ważne są przy tym łańcuchy komunikacji między oddzielnymi gałęziami gospodarki. a sieciami innych procesów o charakterze politycznym, kulturowym, społecznym. Trzeba działać, lecz działać refleksyjnie, uwzględniając pułapki bezrefleksyjnego aktywizmu, arogancji, politycznego idiotyzmu. Czas wylądować na Ziemi, na jej konkretnym kawałku i wziąć zań odpowiedzialność ze świadomością, że to lokalne działanie będzie miało globalne skutki.

1. 3 Zastosowanie sieci neuronowych w cybernetyce ekonomicznej

Sieci neuronowe uzyskuje coraz większe poparcie w matematyce dyskretnej. Łącząc ze sobą elementarne neurony tworzą tzw. struktury warstwowe. Czyli sieć posiada warstwy zbudowane z pojedynczych neuronów. W obrębie jednej warstwy nie ma połączeń między neuronami, połączenia stosuje się  pomiędzy poszczególnymi warstwami.

Poł ączenia stosuje się w taki sposób, że wyjścia neuronów pierwszej warstwy są łączone z wejściami warstwy kolejnej na zasadzie każdy z każdym. Wyście każdego neuronu z pierwszej warstwy jest podawane na wejścia wszystkich neuronów warstwy kolejnej. Należy zaznaczyć, że sygnał wyjściowy nie jest dzielony i taki sam jest podawany na wejścia wszystkich neuronów z kolejnej warstwy.

Niżej przedstawimy podstawowe rodzaje sieci neuronowych do przetwarzania informacji. Omówimy algorytmy uczenia oraz odtwarzania takich sieci neuronowych, jak: perceptron wielowarstwowy, sieć kaskadowej korelacji, sieć radialna, sieci rekurencyjne, sieć koherenna, sieci typu SVM i inne. W pracy zamieszczono wyniki symulacji komputerowych różnych rodzajów sieci w zastosowaniach do przetwarzania informacji.

Większość współcześnie budowanych i wykorzystywanych sieci neuronowych ma budowę warstwową, przy czym ze względu na dostępność w trakcie procesu uczenia wyróżnia się warstwy: wejściową, wyjściową, oraz tak zwane warstwy ukryte. Pierwsza warstwa traktowana jest zawsze jako warstwa wejściowa a ostatnia jako wyjściowa. Pomiędzy nimi są warstwy ukryte.

http://www.cs.put.poznan.pl/rklaus/assn/images/siec1.gif

Oczywiście że warstwy ukryte nie zawsze muszą występować, zależy to bowiem od ogólnej ilości warstw w sieci. Jeśli np. mamy cztery warstwy ( jak w obrazie powyżej ) to kolejno 2 i 3 warstwa są warstwami ukrytymi. Jeśli warstw ogólnie jest dwie to logiczne jest, że taka sieć warstw ukrytych nie posiada.

Najczęstszym podziałem jaki stosuje się w przypadku sieci neuronowych jest podział ze względu na architekturę.

Wyróżniamy tutaj:

Sieci jednokierunkowe - Ogólnie ujmując są to takie sieci, w których nie występują żadne sprzężenia zwrotne. W sieciach jednokierunkowych sygnały  są przesyłane od warstwy wejściowej poprzez warstwy ukryte (jeśli występują) do warstwy wyjściowej. Sposób działania tego rodzaju sieci określa jednocześnie ich nazwę.

Sieci jednokierunkowe - Ogólnie ujmując są to takie sieci, w których nie występują żadne sprzężenia zwrotne. W sieciach jednokierunkowych sygnały  są przesyłane od warstwy wejściowej poprzez warstwy ukryte (jeśli występują) do warstwy wyjściowej. Sposób działania tego rodzaju sieci określa jednocześnie ich nazwę.

Do znanych struktur sieci jednokierunkowych należą perceptron i Madaline. Należy odnotować, że tego typu sieci są dzisiaj najbardziej rozpowszechnionymi strukturami, o czym świadczy fakt, że ponad 80% zastosowań realizowanych jest z wykorzystaniem sieci jednokierunkowych.

Sieci rekurencyjne.   Sieciami rekurencyjnymi nazywamy sieci o połączeniach dwukierunkowych między elementami przetwarzającymi lub ze sprzężeniami zwrotnymi. W sieciach takich dopuszczone jest połączenie zwrotne czyli sygnał z wyjścia może być przenoszony na wejścia neuronów z poprzednich warstw.

Sieci komórkowe. Sieci tego typu są znacznie bardziej skomplikowane w porównaniu z sieciami jednokierunkowymi, a reguły ich projektowania są również trudniejsze w praktycznej implementacji. Znanym przykładem takich sieci jest maszyna Boltzmana, którą uważa się za uogólnienie sieci Hopfielda.

http://www.cs.put.poznan.pl/rklaus/assn/images/komork.gif

Ogólna struktura sieci komórkowej.

Sprzężenia wzajemne między elementami przetwarzającymi dotyczą jedynie najbliższego sąsiedztwa. Połączenia te są w ogólności nieliniowe i opisane poprzez układ równań różniczkowych. Podstawową trudność w stosowaniu tego typu sieci stanowi opracowanie skutecznej, efektywnej i uniwersalnej metody projektowania. Typowym przykładem sieci komórkowej może być sieć typu mapa cech Kohonena.

2  CYBERNETYCZNO-EKONOMICZNE MODELE MATEMATYCZNE AUTARKII ENERGETYCZNEJ W KONTEKSCIE EKOLOGII INTEGRALNEJ

Aspekty metodologiczne w badaniach procesów społecznych opierają się na logikę rozmytą. Jako system otwarty, energetyka może stosować tylko stochastyczny model prognostyczny w celu przewidywania sytuacji na rynku a także w życiu społecznym. W ostatnim znaczeniu, w odniesieniu do socjologii stosujemy dla modelowania, matematykę dyskretną. Podstawy zastosowania jej w cybernetycę podał w swojej pracy naukowej Slavian Radev. Wydana ona została diesiąć lat wstecz pod szyldem ,,Collegium Mazovia”.

Dyskretna matematyka opiera się na cybernetyczne podejście w tworzeniu modeli fenomenologicznych. Każdy model zarządzania finansami w nawet w stosunku do energetyki, jest niedoskonałym, bo jest tylko modelem bardzo skomplikowanego systemu. Przy tym tylko modelowanie komputerowe i jego weryfikacja empiryczna daje wiedzę na którą można się opierać, stosować w wyborze optymalnych dróg w praktyce i w życiu społeczno-gospodarczym. Instrumentem ma występować logika.

Logika w rozumowaniu klasycznym, jako sztuka wnioskowania w teorii poznania naukowego świata, w tym i problemów ekologicznych oraz energetycznych, opierająca się na matematykę klasyczną, też nie zdaje egzaminu w makroekonomii. Nie zdaje ona i egzaminu w fizyce kwantowej. Ma racje, chyba nawet najwięcej w krajowej fizyce Krzysztof Meisner, profesor UW, gdy mówi otwartym tekstem, że na ćwierć wieku jest matematyka do tyłu od wymagań ,,kwantowców”.

Słabość matematyki w ujęciu integralnym jest bardzo wyczuwalną nawet i w prognozie pogody. Każdy system otwarty z jednym wyjściem trudny dla modelowania. Tylko ,,autarkijne” modele sektorów gospodarczych, przykładowo energetyki, mogą pomóc stosować modelowanie statyczne w bifurkacji finansowej i nawet gospodarczej, w warunkach gospodarki rynkowej.

Co ż mówić możemy o modelowaniu stanu makroekonomii. Jak potoczy się rynek surowców, cennych papierów itp. W gospodarce światowej, tak nawet i krajowej wszystko sprowadzają do modeli sterowanego chaosu. Brak mądrych ekonomistów! Nie skoro pojawią się one w Polsce a nawet i na świecie. Ich ,,noblowanie” odbywa się w sposób tendencyjny, w towarzystwie wzajemnej adoracji i prowadzi to zagrożeń w aspekcie ekologii integralnej, ekologii duszy etc.

W procesach globalnych, jak zmiana klimatu, kataklizmy związany z katastrofami i awariami różnego rodzaju w energetyce i załamania w ekonomii, bardzo ciężko jest poddać modelowaniu komputerowemu. Ucierpiało fiasko także i stosowanie podejść poważnej fizyki, głównie zasad i praw termodynamiki dla modelowania procesów społecznych. Logika trudno jest oszukiwać. Zresztą i logika-fizyka też oszukać trudniej w porównaniu do logika-filozofa, czy filozofa-moralistę itp. Jak to nie paradoksalnie, zazwyczaj prawda, na parę z logiką, nie są wpuszczane do świetlicy. Prawda jest tylko w siankach, nieraz zepchnięta do ciemnej piwnicy, a często nawet gdzieś tam na zadworzu.

W formie klasycznej, w czasie komercjalizacji nauki, niestety często staje się ona zbędną. Alogiczność w fizyce staje się przy tym przerażającą. Logika rozmyta, wielowarstwowa i w innych postaciach podawana, staje się niestety dla nauk poważnych, szkodliwą. Tak jest z fizyką kwantową i jądrową, ze współczesnymi kierunkami chemii, w dziedzinach ich powiązania z biologią, kosmosem, itp.

Dla tego kosmologia i astrofizyka to dwie wielkie różnicy, jak mówią logicy w Odessie.Również jak biofizyka tak i biochemia a także astrofizyka nie może oprzeć się na klasyczną matematykę. Nawet i mechanika ciała stałego w części poznawania deformacji plastycznych, zjawisk reologicznych, zjawisk powiązanych z dyssypacją energii nie może być spełni funkcjonalną. Każdy autor podręcznika z mechaniki kwantowej ma swoją fizykę i swoją chemie. Więc, dobrym jest powiedzenie lwowskich profesorów, że nikt z ,,kwantowców” na fizyceę kwantowej się nie zna. To samo i z teorią plastyczności, hiperplastyczności, akustosprężystością itp.

W czasach współczesnych, jeżeli ktoś z mądrych naukowców chce udowodnić że nowoczesna nauka jest częścią starej, to nie dostaje finansowania. Kiedyś w kontekście tego groteskowego rozważania, Hugo Steinhaus mądrze powiedział, że logika jest jedną z cech głupstwa. Na pewno że gdy by się obudził Arystoteles by dostał po tych słowach zawału serca. W tej że prace [29] wybitny logik-matematyk, odkrywca Stefana Banacha mądrze doradzał, że rządzić jest trudno i dlatego mądrzy chętnie powierzają ten obowiązek głupim – dla nich nie ma trudności! Z ,,narodu wybranego” też nieraz mędrcy powstają, ale coraz większe z tym są kłopoty. Trudno teraz o pojawienia się Arystotelesa a nawet i Platona.

Kiedyś Aleksander Macedoński powiedział, że wdzięczny Filipowi, który dał jemu życie, ale podwójnie wdzięczny Arystotelesowie nauczył go co ma w nim zrobić. Jak że chce mi się w unison wykrzyknąć, że moim Sasom i rodzicom Stefanii i Bazylemu wdzięczny jestem za dobre geny, czy jak precyzyjnie powiedzieć, za genom szlachetny a za to że Bóg mi dał dobrych nauczycieli to jeszcze większa wdzięczność i dla Pana i dla tych, kto ulepił ze mnie nie najgorszego analityka procesów w wielkim świecie, w tym i w świecie poważnej nauki.

Dla ,,oduraczania” ,,mędrców” społeczeństwa, jak trafnie mówi satyryk współczesny, polski mecenas Stanisław Michalkiewicz, lepiej rozpoczynać akcie od wodza państwa. Jeżeli wodzowie mają zerową intuicje, to w Rwandzie lekko możno było podzielić ludność na Hutu i Tut si. Jeżeli się ma nieuka w krześle przywódcy państwa europejskiego, to czemu tą metodę nie wykorzystać nawet i w Europie, idealnie w Ukrainie, a może się uda i w Polsce! Coś podobnego chcą ,,zmodelować”, opierając się na logikę ,,bardzo rozmytą” i w Wielkiej Brytanii.

Żeby jednak wybrnąć z brutalnej współczesnej polityki, warto wspąmnąć, że już w czasach starożytnych, intuicyjna złożoność podejmowania decyzji wymaga od wodza wiedzy z dziedziny logiki. Jego zdolności prognostyczne opierający się na doświadczenie życiowe, na wiedzę naukową, oraz intuicja genetyczna, wymagała jednak naukowego fundamentu dla codziennych skutecznych działań. Doświadczenie oraz intuicja… Na nich, jako na dwóch ławach fundamentu trzyma się mądrość przywódcy, a on formuję politykę państwa. Jeżeli do rąk globalistów oddamy interesy państwowy, to masoneria nas wykończy, bo jako mafia polityczna nieraz z nami to zrobiła. Od czasów Augusta Mocnego i Piotra Wielkiego nic się nie zmieniło.

W nauce oczyszczonej od polityki używamy pojęcie intuicyjna złożoności. Ma ona wiele aspektów. Trudno ją określić i sformułować  dokładnie. W logice formalnej często ograniczają się do złożoności obliczeniowej problemów, do modelowania procesów społecznych z zastosowaniem modeli termodynamiki etc. Z naszego punktu widzenia, jest zbyt ryzykownym przerzucanie i wieszanie obowiązków naukowców na zarządcę a ten na problemy matematyka i jego narzędzie, czyli komputera. Ma program i niech sam sobie operator liczy. Występuje problem dla obywateli jak oto: długie obliczenie i jednocześnie ,,kopanie w ogródku i rozmowa z naczelnikiem”.

Wróćmy znowu do logiki. Skorzystajmy z niej w poszukiwania pomocy w zarządzaniu i podejmowania decyzji w zarządzaniu. Zacznijmy od tego, że logika powstala jako nauka o poprawnym wnioskowaniu. Rozwój tej nauki trwa ponad 2000 lat. W kolejnych wiekach znajdowano prawa logiki, metody wnioskowania. Ostatnie operatory logiczne, jak dobrze wiemy, stosowane w życiu naukowymi społecznym, zbadano dopiero niecaly wiek temu.

Na pierwszym miejscu w zarządzaniu małymi grupami ludzi a nawet i państwem, jak wiemy dobrze, jest prawo. Logika prostych zdań pomaga jemu przetrwać w środowisku chytrych polityków. Ostatnie mają, za określeniem Donalda Regana, zazwyczaj jako jedyną cel, być wybranym na powtórny termin. Mają one swoją własną logikę a nawet i całą filozofie dualizmu w polityce: jedno mówić, drugie myśleć. Robić jeszcze co innego potrafią!

Politycy tworzą chaos w nauce. W tym przypadku, nawet i logika klasyczna, jako metodologia i chleb nauk ścisłych, często bywa, niestety, bezradna! Przykro, że biurokracja nie pozwala uporządkować dokumenty prawne, które mogli by poprawić stan nauki. Oczywiście większość producentów takich dokumentów mija się z logiką. Wcale im nie to nie szkodzi, a w większości przypadków bardzo pomaga w realizacji merkantylnych interesów.

Dla opracowania masywów danych wziętych z życia społecznego, wymaganym jest praktyczne stosowanie zasad teorii mnogości. Wtedy wchodzi w grę logika algebraiczna. Ona ma slużyć do uporządkowania dowodów matematycznych. Polscy naukowcy wprowadzają do użytku logiki wielowartościowe. Przy tym większość przedstawicieli nauk społecznych i nawet prawników zapomina o logice prostych zdań. Ma miejsce hipotetyczność w prognostyce suwerenności energetycznej, finansowej itp.

Przejaw zjawisk znanych, możno by określić w uproszczeniu i w przybliżeniu jako obszar logicznej ignorancji. Ale znowuż: logika to nauka o weryfikowania i falsyfikowania hipotez. Dalej rozwiniemy tą tezę wraz ze sposobami dowodzenia. Wprowadzimy pojęcie logiki zdaniowej. Zdania bywają różnego rodzaju – twierdzenia, pytania, rozkazy etc. Twierdzenia mogą być prawdziwe lub nieprawdziwy. Dla rozkazów i pytań określenie ich prawdziwości często nie ma sensu, bo one mogą określać czyny i obiekty.

Z prostych zdań, w postaci stwierdzeń, możemy budować zdania złożone. Na przykład z powiedzenia ,,Pani kuje, a pan panikuje…”. Możemy rozumować, zastanawiać się, czy pan też czasem nie kuje pani? A może pan kuje dla pani klacze czy konia! Czy pani, daje zastrzyk, i czy pan jednocześnie też nie daje zastrzyk dla kotka czy pieska. Taka zabawa semantyczna wymaga prawidłowego podejścia w budowaniu konstrukcji syntaktycznych. Każdy język a nawet wymowa ma tutaj swoją logikę rozmytą.

Takie same są łączniki (operacje) w algebrze boolowskiej, więc możemy ją zastosować do obliczania prawdziwości złożonych zdań. Formalna logika zdaniowa może być zalgorytmizowaną. Wtedy nadaje się ona jako instrument do opracowania wniosków i twierdzeń przy pomocy komputerów, bo języki dla komputerów są najbardziej formalne. Prawa logiki zdaniowej, to te prawa, które pochodzą z określania koniunkcji. W tym przypadku musimy uwzględniać podejście semantyczno-semiotyczne.

Zwracając się znowu że do matematyka-logika Hugo Steinhausa, napotykamy się na jego stwierdzenie, że arystokracja wywodzi swe przywileje od pierwszego z rodu, tzn. od tego jedynego w linii, który nie urodził się arystokratą. Przyjmując pewne stwierdzenia za prawdziwe (na przykład tautologie) możemy przeprowadzić dowody. Idea dowodzenia jest oczywista – przekonać innych.

Ponieważ każdy ma swoją racje i przekonania, to lepiej korzystać z nich w dowodach. Przyjmując te przekonania za prawdę (biorąc je jako hipotezy, stosujemy prawa logiki by wywnioskować, co z tych przekonań wynika. Oprócz tego przyjmuję się, że w każdym systemie przekonań są zawarte wszystkie tautologie jako „wspólny sens”. I tu jest pies pogrzebany!

Dowodzimy to, co my chcemy, a nie to, co chce osoba przekonywana. Jeśli w jego przekonaniach jest sprzeczność, to stosujemy metodę dowodzenia reductio ad absurdum (sprowadzania do absurdu). Jak widać z implikacji z nieprawdy wynika zarówno prawda jak i nieprawda. Wystarczy tylko jedna sprzeczność by obalić całą teorię. W tym sensie logika zachowuje się jak śpiąca królewna – wystarczy zagryźć sprzeczność i od razu usypia na wieki.

Zdarza się, że jakiś ,,książę od matematyki” odgrzebie teorię, wytrząśnie z niej sprzeczność i przywróci do życia. Tak stało się w swoim czasie z teorią mnogości, kiedy odkryto w niej paradoksy. Jeden sposób na omijanie paradoksu. Russell zaproponował: podział na klasy i zbiory, przy czym dla klas niczego nie zakładamy. Ta sama idea jest w programowaniu obiektowym, gdzie domyślnie jest tylko jedna klasa; wszystkie inne są w rękach programisty (niech on sprawdza ich niesprzeczność, jeśli  lubi).

Aby przekonać musimy mieć bardzo przekonywującą metodę przekonywania. Metodę używaną w logice opiera się na dwóch zasadach:

zasada prostoty – dowód ma być możliwe prosty;

zasada składnikowa – dowód ma opierać się na składnikach pojęć.

Oprócz tego przydałoby się aby dowodziliśmy prawdy z prawd. Praktyka wysegregowała następujący schemat: Z systemu przekonań (stwierdzenia przyjęte przez przekonywanego) wnioskujemy stwierdzenia, wynikające bezpośrednio za pomocy reguł wnioskowania typu „konkretyzacji”i może ona być syntaktyczna lub semantyczna. Mamy dwa rodzaje reguł: syntaktyczna i semantyczna.

Warto także zwrócić uwagę na nazewnictwo w nauce. Niektóre formalne konstrukcje są naukami (jak algebra i geometria). Jednak że, jeśli do określania prawd w danej dziedziny potrzebujemy logicznego wnioskowania (na przykład zachowanie programów zależy od formuł logicznych i poprawność ich działania dowodzimy logicznie), to jest teoria, jeśli wystarczy tylko rachunek (to znaczy wszystkie reguły są syntaktyczne), to jest nauka. Nauka o grafach, przykładowo, jest nauką typu kombinatorycznego, nauka o prawdopodobieństwach. Wreszcie jest tylko teorią, bo zdarzenia określamy warunkiem. Faktem jest że logika zdaniowa ma swoje miejsce w algebrze Boole’a.

Rozumowanie logiczne nad predykatami przyprowadza nas do Demokrytesa. Struktura atomów jest niepodzielna. Taka jest zasada atomizmu Demokrytesa. Jednak w tradycji hinduizmu dochodzimy do wniosku, że tylko pustka jest niepodzielna. Dla tego aby mówić logicznie o algebrach, w szczególności o prawach arytmetyki i różnych jej rozszerzeniach potrzebujemy bardziej rozbudowanego języka.

Na pierwszym miejscu jest język wyrazów nazywany w literaturze również termami. W tym języku dodajemy nazwy dla zmiennych, więc elementy metajęzyka algebry. Język logiki predykatów pozwala mówić nie tylko o pojedynczych obiektach, ale i o prostych klasach obiektów. Jak zauważył P. Aczel, kwantyfikator ogólny odpowiada klasie wszystkich obiektów, kwantyfikator egzystencjalny odpowiada klasie wszystkich niepustych klas obiektów. Faktem jest, że logika predykatów ma swój model w arytmetyce

Z wszystkich funkcji boolowskich formalnie będziemy używać tylko koniunkcja, alternatywa i negacja. Przy rozumowania naokoło logiki wyższych rzędów, powiedzieć musimy, że logika zdaniowa szuka prawdy w klasie prostych zdań. Aksjomaty takiej logiki otrzymamy przez dodawanie aksjomatów dla nowych formuł do już określonych aksjomatów dla logiki zdaniowej. Omawiając logikę drugiego i wyższych rzędów, uwzględniamy, że tym samym sposobem, jak i w logice pierwszego rzędu możemy konstruować logiki wyższego rzędu.

Jeśli w logice pierwszego rzędu mamy kwantyfikatory nad klasie zmiennych, to w logice drugiego rzędu dodajemy kwantyfikatory nad relacjami (funkcjami). To znaczy, że zbieramy do kupy nie tylko wszystkie obiekty, ale wszystkie podzbiory wszystkich obiektów. Wśród wszystkich możliwych relacji znajduje się i klasa wszystkich możliwych zbiorów składających się z obiektów.

To jest drugi poziom generalizacji, więc naturalnie jest nazwać taką logikę „drugiego rzędu”. Niestety dla logiki drugiego rzędu nie istnieje aksjomatyzacja. Rachunek prawd tej logiki nie może być zautomatyzowany. Przechodząc do rozumowania naokoło logiki wielowartościowej, opierając się na stwierdzenie Flaszena, że każdy absurd ma swoją logikę, widzimy jak kolorową, a nie czarnobiałą jest logika! Pomiędzy prawdą a fałszem często pojawia się i trzecia wartość logiczna.


Literatura do rozdziału  II

  1. M. Aigner, G. Ziegler. Dowody z Księgi, PWN, Warszawa, 2004
  2. Muhammad ibn Mūsā al-Khwārizmī. al-Kitāb al-muḫtaṣar fī ḥisāb al-ğabr wa-l-muqābala
  3. G. Banaszak, W. Gajda. Elementy algebry liniowej. WNT, Warszawa, 2002
  4. J. Barwise (red.) Handbook of Mathematical Logic. North-Holland, Amsterdam, 1977
  5. G. Boole. An Investigation of the Laws of Thought. On Which Are Founded the Mathematical Theories of Logic and Probabilities. Walton&Maberly, London, 1854.
  6. Reinhard Diestel. Graph Theory, Springer, 2005
  7. Euklides. Elementy, PWN
  8. H. Garcia-Molina, J. Ullman, J. Widow. Systemy baz danych. PWN, Warszawa, 2006
  9. D. Harel. Rzecz o istocie informatyki. Algorytmika. WNT, Warszawa, 2000
  10. Hilbert. Grundlagen der Geometrie. Leipzig 1999.
  11. Hintikka. spis publikacji http://www.helsinki.fi/filosofia/filo/henk/hinpub
  12. Donald Knuth The Art of Computer Programming, Addison-Wesley, Reading, Mass., 1968.
  13. L. Kropiwnicki, S. Radev. Wieloagentowe systemy podejmowania decyzji, Telecotron International, Warszawa, 2006.
  14. K. Kuratowski, A. Mostowski. Teoria mnogości, Monografie matematyczne tom XXVII, Warszawa, 1952
  15. St. Lem. Wielkość urojona.
  16. St. Lem. Cyberiada, WL, Kraków, 1978.
  17. J. Łukasiewicz. Collected works. North-Holland and PWN, Warszawa, 1970.
  18. Beata Padlewska, Slavian Radev. Informatyka teoretyczna (modele i zadania). Telecotron, Warszawa, 1999
  19. Edgar Alan Poe. Poems and Essays. J.M.Dent&Sons, London, 1927.
  20. S. Radev. Strona domowa. aragorn.pb.bialystok.pl/~radev/
  21. H. Rasiowa, R. Sikorski. Matematyka metamatematyki. PWN, Warszawa
  22. Helena Rasiowa. Wstęp do matematyki współczesnej, PWN, Warszawa, 1968
  23. K. Ross, C. Wright. Matematyka dyskretna, PWN, Warszawa,
  24. Richard P. Stanley. Enumerative Combinatorics, Cambridge University Press, 1997.
  25. Hugo Steinhaus. Słownik racjonalny. Kilka słów o kilku słowach. Ossolineum 1980
  26. J. Tiuryn, J. Tyszkiewicz, P. Urzyczyn. Logika dla informatyków. 2006
  27. M. Tokarz. Elementy pragmatyki logicznej, PWN, Warszawa 1993
  28. Kazimierz Trzęsicki. Logika z elementami semiotyki i retoryki, Wyższa Szkoła Administracji Publicznej, Białystok, 2009
  29. Webster’s Seventh New Collegiate Dictionary, G.&C. Merriam Company Springfield, Mass. 1976
  30. L. Wittgenstein. Tractatus logico-philosophicus. Routledge&Kegan, London, 1961.
  31. W. Wysoczański Bezpieczeństwo rurociągów przesyłowych z kierunku wschodniego do Europy Zachodniej” w mon. zespołowej Bezpieczeństwo Europy. Warszawa, 2015 str. 227…242,
  32. W. Wysoczański i in. Energetyka niekonwencjonalna mon. 2000, 436 str.
  33. W. Wysoczański, Polakożerczość w nauce wynik jej upolitycznienia. Warszawa, 2018.


3   EKONOMIA MATEMATYCZNA

Ekonomia matematyczna jest to kierunek w ekonomii zajmujący się badaniem szeroko pojętych zjawisk gospodarczych przy użyciu zaawansowanych technik matematycznych, takich jak analiza szeregów czasowych czy programowanie dynamiczne. Współczesna ekonomia główno nurtowa w coraz większej mierze odwołuje się od tych metod (chociażby poprzez modele równowagi ogólnej), niemniej podział na matematyczny i instytucjonalny nurt w ekonomii wciąż jest widoczny. Jednymi z podstawowych zagadnień ekonomii matematycznej są modele wzrostu gospodarczego oraz poszukiwać pracy. Gałęzią wiedzy pokrewną ekonomii matematycznej jest ekonometria, jednak drogi obu nauk silnie się rozeszły po opublikowaniu krytyki Lucasa.

Ekonomia matematyczna pojawia się w zagadnieniach takich jak:

  1. matematyka stosowana,
  2. badania operacyjne,
  3. chaos (matematyka),
  4. metody numeryczne,
  5. optymalizacja (matematyka),
  6. programowanie matematyczne,
  7. proces stochastyczny,
  8. rachunek wariacyjny,
  9. teoria decyzji,
  10. teoria gier,
  11. teoria informacji,
  12. matematyka aktuarialna.

Matematyka aktuarialna – dział matematyki stosowanej obejmujący zagadnienia m. In. Rachunku prawdopodobieństwa, statystyki, matematyki finansowej, metod numerycznych i koncentrujący się na zastosowaniach w dziedzinie ubezpieczeń. W matematyce ubezpieczeń życiowych głównym ryzykiem jest możliwość zgonu. Inwalidztwo, utrata możliwości zarobkowania, choroba wymagająca długotrwałego kosztownego leczenia, a także inne porównywalne zdarzenia losowe mogą być czasem podobnie dotkliwe dla rodziny ubezpieczonego jak jego śmierć. Aby móc zajmować się takimi ubezpieczeniami niezbędny jest matematyczny model uwzględniający wystąpienie jednego z kilku zdarzeń będących podstawą wypłaty świadczenia w odpowiedniej dla zadanej szkody wysokości. Jest to model szkodowości wielorakiej. Do podstawowych zagadnień należy modelowanie rozkładu łącznej wartości szkód w modelu ryzyka łącznego lub indywidualnego.

Ekonomia matematyczna stanowi również uzupełnienie innych obszarów nauki, między innymi:

  1. statystyki (gromadzenie oraz prezentacja obserwowanych danych, a także weryfikowanie stopnia dokładności badań oraz stawianych hipotez),
  2. ekonometrii (tworzenie modeli przy użyciu metod matematyczno-stochastycznych),
  3. prognozowania (tworzenie prognoz na przyszłość w oparciu o stworzone modele matematyczne),
  4. badań operacyjnych (ustalanie reguł postępowania umożliwiających podejmowanie racjonalnych decyzji).

Efekt substytucyjny- zmiana stosunku nabywanych dóbr (usług) wywołana zmianą ceny jednego z nich. Wraz z efektem dochodowym opisuje wpływ zmiany ceny na siłę nabywczą i decyzje konsumenta. Aby opisać efekt substytucyjny uwzględniamy zmianę ceny jednego z dóbr i takie dostosowanie dochodu, aby mimo tej zmiany siła nabywcza konsumenta pozostała stała.

Interpretacja algebraiczna:

Załóżmy, że zmienia się cena dobra X. Algebraicznie dochód konsumenta przed zmianą ceny zapisujemy jako:

Dochód, jaki konsument musiałby osiągać, aby po zmianie ceny mógł nabyć początkowy koszyk dóbr to:

Zmianę dochodu „kompensującą” konsumentowi zmianę ceny zapisujemy jako:

(gdzie - dochód,  - dochód zmieniony, - pierwotna cena dobra x, - nowa cena dobra x, - cena dobra y,  -ilość dobra x,  - ilość dobra y)

Efekt substytucyjny obliczamy ze wzoru:

 (gdzie jest funkcją wielkości popytu na dobro x od dochodu konsumenta i ceny produktu)

Kierunek działania efektu substytucyjnego:

Efekt substytucyjny zmienia się zawsze w kierunku przeciwnym niż zmiana ceny. Oznacza to, że jeśli cena produktu rośnie to w wyniku działania efektu substytucyjnego wielkość popytu nań maleje.

Interpretacja graficzna:

Graficznie osiągamy to dokonując obrotu linii ograniczenia budżetowego wokół początkowego koszyka dóbr, czyli punktu optimum konsumenta. W efekcie koszyk ten pozostaje w finansowym zasięgu konsumenta i w tym znaczeniu jego siła nabywcza pozostaje niezmieniona. Nowa linia ograniczenia budżetowego jest jednak styczna do wyżej położonej krzywej obojętności, więc punkt równowagi konsumenta ulega przesunięciu w kierunku dobra relatywnie tańszego.

Efekt dochodowy obrazuje wpływ zmiany ceny produktu na zmianę zgłaszanego zapotrzebowania na ten produkt, a spowodowanego zmianą siły nabywczej dochodu konsumenta.

Obniżenie ceny zwiększa dochód konsumenta, a tym samym umożliwia mu zakup większej ilości każdego produktu.

Podwyższenie ceny tymczasem powoduje spadek możliwej do zakupienia ilości produktów, spowodowany zmniejszeniem siły nabywczej dochodu.

Poniższy wykres pokazuje interpretację geometryczną obu efektów substytucyjnego i dochodowego:

Rysunek_5_7.png

Przykład:

Mamy dane: funkcja popytu na mleko:, dochód początkowy początkowa cena mleka .

Mamy więc początkowy popyt:

Przypuśćmy, że cena mleka spada do . Wtedy popyt przy nowej cenie wynosi:

Jaki jest efekt substytucyjny i dochodowy w tym przypadku?

Liczymy więc:

Zatem dochód o tej samej sile nabywczej wynosi:

Jaki zatem byłby popyt na mleko przy cenie  i dochodzie ?

Liczymy:

Teraz policzymy efekt substytucyjny :

Efekt dochodowy :

.

Popyt i jego elastyczność: – relacja między wyrażoną w procentach zmianą popytu, a wyrażoną w procentach zmianą czynnika, który tę zmianę wywołał. Elastyczność popytu można określić tylko w odniesieniu do tych czynników kształtujących popyt, które da się zmierzyć. Informuje o wrażliwości popytu na zmiany czynników go kształtujących zewnętrznych i wewnętrznych.

Niech:          - liczba konsumentów,

  – popyt- procentowa zmiana q;

 - procentowa zmiana ceny p ;

         - procentowa zmiana dochodów konsumenta;

 - elastyczność funkcji

Wykres poniżej przedstawia elastyczność popytu zależnego od ceny p i ilości dóbr q:

Krzywa_elasty_popytu.jpg

Nachylenie wykresu to:

Elastyczność  popytu wyraża się wzorem :

Zazwyczaj elastyczność podajemy jako jej wartość bezwzględną .

Gdy  to popyt jest elastyczny, gdy  to popyt jest nieelastyczny, natomiast gdy  jest to jednostkowa elastyczność popytu.


Przykłady:

1. Wiadomo, że ilość nabywana dobra X wzrosła z 10 do 20, a cena dobra Y spadła z 15 do 5. Oblicz elastyczność mieszaną popytu na dobro X.

2. Popyt na mieszkania wzrósł o 20%, gdy cena za metr kwadratowy spadła o 15% Oblicz elastyczność cenową popytu.

3. Elastyczność dochodowa popytu na dobro X wynosi 0.6 Jak zmieni się popyt na dobro, jeżeli dochód konsumenta wzrośnie o 2%?

 Ad. 1.:

Mamy więc:

, , ,

Stąd wyliczamy teraz:

Zatem:

Ze wzoru na elastyczność popytu mamy teraz:

Zatem popyt wynosi  i jest to popyt nieelastyczny.

Ad. 2.:

W tym zadaniu wiemy, że:

 oraz

Pozostało tylko wyliczyć ze wzoru:

W tym zadaniu popyt wynosi  i również jest to popyt nieelastyczny.

Ad. 3.:

Tu mamy dane :

 oraz  

Należy zatem przekształcić wzór:

I podstawiamy do wyznaczonego wzoru:

Zatem popyt na to dobro wzrośnie o 1,2%.


4  ISTOTA RYZYKA W ZARZĄDZANIU

Ryzyko i bezpieczeństwo ekonomiczne – pojęcia odnoszące się do sztuki zarządzania finansami. Termin bezpieczeństwo, zawężone jednak do ekonomicznych podstaw funkcjonowania państwa. Wiąże się on z dyscypliną naukową, ekonomią, czyli wiedzą o polityce oraz o bezpieczeństwie. Zależą one od poglądów badacza. W podejściu naukowym nadawana jest mu określona definicja. Kryterium podziału w tej materii jest rodzaj poglądu na dominującą w przestrzeni wizję modelu funkcjonowania gospodarki narodowej i społeczeństwa oraz rzeczywistości międzynarodowej. Nieraz od tego, jaki poglądy reprezentuje dany badacz.

Definicje bezpieczeństwa ekonomicznego można podzielić na cztery grupy.

Pierwsza grupa definicji to te, które opierają się na zagrożeniu.

Druga grupa definicji to te, które łączą zagrożenia i możliwości.

Trzecia odwołuje się do zdolności państwa do funkcjonowania.

Czwarta grupa to definicje jednostronne.

Bezpieczeństwo ekonomiczne poprzez zagrożenia definiują Eric Marshall Green, Andrzej Lubbe, Stanisław Michałowski, Eliza Frejtag-Mika; poprzez zagrożenia i możliwości – James Sperling, Emil Kirchner, Patrick De Souza; poprzez zdolności państwa do dobrego funkcjonowania – Christopher Dent, Krzysztof Księżopolski; bogactwo – Ramesh Thakur, zdolność przeciwstawiania się wpływom innych – Vincent Cable.

Natomiast definicje jednostronnie odnoszące się do konkretnych państw formułują tacy autorzy, jak C. Richard Neu i Charles Wolf. Podani autorzy nie wyczerpują bogatej listy definiujących pojęcie bezpieczeństwa ekonomicznego, ale pokazują główne kierunki myślenia o tym zagadnieniu.

Według Krzysztofa Księżopolskiego bezpieczeństwo ekonomiczne to niezakłócone funkcjonowanie gospodarek, to znaczy utrzymanie podstawowych wskaźników rozwojowych oraz zapewnienie komparatywnej równowagi z gospodarkami innych państw. Definicja ta łączy w sobie element ekonomiczny i politologiczny. Autor wyodrębnia cztery wymiary bezpieczeństwa ekonomicznego, które są ze sobą logicznie powiązane i zależne, a mianowicie wymiar finansowy, surowcowo-energetyczny, żywnościowy i dostępu do czystej wody. Oznacza to, iż uznaje łączność takich kategorii jak bezpieczeństwo finansowe, bezpieczeństwo energetyczne, bezpieczeństwo surowcowe, bezpieczeństwo żywnościowe i bezpieczeństwo dostępu do czystej wody. Uznając, iż stosowanie tych kategorii jako odrębnych wynika z dyskursu bezpieczeństwa, który np. w Polsce polega na konsumpcji przez bezpieczeństwo energetyczne – bezpieczeństwa ekonomicznego. Takie ujęcie jest niezwykle szerokie, umożliwia ono jednak podjęcie analizy poszczególnych wymiarów bezpieczeństwa, a następnie dokonanie syntezy i uogólnień celem określana poziomów bezpieczeństwa poszczególnych państw.

Wykorzystaniem tego podziału jest możliwość analizy szczegółowych aspektów bezpieczeństwa ekonomicznego, czego wyraz znajduje się w publikacji "Wpływ wydobycia gazu łupkowego na bezpieczeństwo ekonomiczne Polski" wydanym w Ośrodku Analiz Politologicznych UW.

Ciekawe definicje bezpieczeństwa ekonomicznego znajdujemy w literaturze rosyjskojęzycznej. W przeciwieństwie do Anglosasów nauka rosyjska dość późno zajęła się tymi zagadnieniami, choć już dzisiaj ma dość pokaźny dorobek. Kwestie bezpieczeństwa ekonomicznego po raz pierwszy pojawiły się w publikacjach, w których bezpieczeństwo ekonomiczne definiuje się jako nie tylko zabezpieczenie narodowych interesów, ale również gotowość i zdolność instytucji władzy do stwarzania mechanizmów realizacji i obrony interesów rozwoju krajowej gospodarki, utrzymywania społeczno-politycznej stabilności wśród ludności.

Bezpieczeństwo ekonomiczne państwa w rozumieniu szerokim definiowane jest, jako „względnie zrównoważony endo- i egzogennie stan funkcjonowania gospodarki narodowej, w którym występujące ryzyko zaburzeń równowagi utrzymane jest w wyznaczonych i akceptowalnych normach organizacyjno-prawnych oraz zasadach współżycia społecznego". Na przestrzeni lat w związku z rozwojem szerokich relacji między państwami wyodrębniła się dziedzina ekonomii międzynarodowej.

Stało się tak za sprawą handlu międzynarodowego, który zapewnił wymianę dóbr i usług na rynku światowym. O znaczeniu danego państwa w dalszym ciągu decydował potencjał militarny jednak jego wymiar i zakres w coraz większym stopniu zależny był od zaangażowania danego kraju w wymianę międzynarodową. Na takim gruncie funkcjonują kolejne definicje opisywanego terminu, które za V. Cable’em uzależniają z jednej strony bezpieczeństwo od dostępu do zaopatrzenia wojska w nowe technologie, z drugiej zaś przypisują narzędziom polityki ekonomicznej państwa znamiona o charakterze działań agresji lub obrony.

Mowa tu o bojkotach handlowych czy inwestycyjnych, restrykcjach lub innych działaniach, których zasięg uzależniony jest od potencjału gospodarczego. Bezpieczeństwo ekonomiczne państwa w ujęciu szerokim definiowane jest, jako "względnie zrównoważony endo- i egzogennie stan funkcjonowania gospodarki narodowej, w którym występujące ryzyko zaburzeń równowagi utrzymane jest w wyznaczonych i akceptowalnych normach organizacyjno-prawnych oraz zasadach współżycia społecznego".

Nieustający proces internacjonalizacji państw napędzany trzecią rewolucją gospodarczą, jaką jest informatyzacja procesów życiowych w tym gospodarczych wpływa na coraz większą zależność ekonomiczną gospodarek tworzących globalny rynek światowy. Handel międzynarodowy uzupełniają obecnie globalne przepływy kapitału o różnorakim charakterze.

Bardzo ważną rolę w tym środowisku zajmują korporacje transnarodowe, które zaczynają pełnić rolę podmiotu międzynarodowego. W takich warunkach bezpieczeństwo ekonomiczne kraju zaczyna być zbieżne z koncepcją geoekonomiki, w myśl której czynnikiem warunkującym pozycję państwa we współczesnym świecie jest jego potencjał gospodarczy, rozumiany jako międzynarodowa zdolność konkurencyjna kraju. Na pozycję konkurencyjną składają się:

  1. pozycja rynkowa, czyli udziały danego państwa w międzynarodowym obrocie gospodarczym;
  2. sieć powiązań międzynarodowych oraz ich jakość;
  3. czynniki wewnętrzne takie jak „stan równowagi ekonomicznej, poziom inflacji, bezrobocia, kierunek zmian w równowadze budżetowej oraz sytuacja na rachunku bieżącym, poziom zadłużenia międzynarodowego i rezerw walutowych oraz tendencje zmian w kursie walutowym”.

Z jednej strony mamy zatem do czynienia z konkurencyjnością przedmiotu, czyli dbaniem o atrakcyjność wytwarzanych dóbr i usług. Z drugiej natomiast mówi się o konkurencyjności podmiotu, której rolą jest przyciągać potencjalnych inwestorów zagranicznych.

Definicję nawiązującą do powyższych rozważani podaje S. Michałowski wskazując, że bezpieczeństwo ekonomiczne jest pewnym „wyobrażeniem w zakresie rzeczywistych, względnie potencjalnych zagrożeń gospodarczych kraju, kształtowane pod wpływem ogólnego stanu zależności ekonomicznych kraju, które określa stopień efektywności zewnętrznej integracji ekonomicznej w wewnętrzny rozwój gospodarczy, zdolność obronną i stabilność systemu społeczno-politycznego danego kraju”.

Na ścisły związek między konkurencyjnością kraju i jego bezpieczeństwem ekonomicznym wskazują E. Freitag-Mika i Z. Kołodziejak mówiąc o tzw.: „gwarancji niezagrożonego rozwoju”, czyli stanie będącym efektem właściwego kształtowania wewnętrznych czynników rozwoju oraz współzależności ekonomicznych danej gospodarki. Skrajnym postulatem w tej materii jest głoszone przez H. Morgana i E. Kapsteina całkowite odrzucenie autonomii państwa w kształtowaniu bezpieczeństwa ekonomicznego, którego stan należy badać poprzez globalną analizę handlu, integracji finansowej i zależności pieniężnej.

Kategoria bezpieczeństwa ekonomicznego związana jest z zagrożeniami dla bezpieczeństwa pochodzącymi ze strony działań państwa jak również wynikającymi z funkcjonowania gospodarki. Zagrożeniami jest agresja ekonomiczna, która przyjmuje formę wojny gospodarczej lub uzależnienia. Techniką prowadzenia wojny gospodarczej jest np. stosowanie polityki sankcji ekonomicznych, a uzależnienia np. polityka energetyczna, czy pomoc rozwojowa.

4. 1  Pojęcie ryzyka przedsiębiorstwa

Termin ryzyka jest znany od bardzo dawna, gdyż towarzyszy każdej działalności człowieka. Stanowi jedno z kluczowych kategorii na tle gospodarki światowej. Zagadnienie ma charakter złożony i wielopłaszczyznowy ze względu na szeroką skalę oddziaływania zarówno w dziedziny życia społecznego jak i ekonomicznego. W związku z tym, nie istnieje jedna, precyzyjna definicja.

Jak wiadomo, każda decyzja pociąga za sobą pewne ryzyko związane z brakiem uzyskania w przyszłości oczekiwanych efektów. Mimo stawianych celów i dążeniom ku realizacji, nie istnieje możliwość przewidzenia na chwilę obecną osiągniętych wyników. Zatem występuje element niepewności. Wobec tego brak kompletnych informacji może przyczynić się do poniesienia strat przez dany podmiot, np. przedsiębiorstwo. Słowo „ryzyko” czerpie swój poczatek od starowłoskiego wyrazu „risicare”, czyli odważyć się[1]. Wobec tego wiąże się z własnym wyborem a nie z przeznaczeniem. Można twierdzić, że kształtuje się przez horyzont czasowy.

Willet A. jako pierwszy utożsamia pojecie ryzyka z niepewnością wystąpienia niechcianego zdarzenia, z którym występuje w ścisłym związku[2]. Zauważa się, że wzrastający poziom prawdopodobieństwa nie odgrywa znaczącej roli na wielkość ryzyka. Następnie amerykański naukowiec F. H. Knight różnicuje dwa wyżej wymienione pojęcia. W swojej teorii podkreśla mierzalną postać ryzyka a zarazem niemierzalną niepewność określaną mianem sensu stricte[3]. Z kolei J. Pfeiffer określa ryzyko jak pewną kombinację komponentów hazardu mierzoną przez niepewność[4]. Wynikać to może z faktu, iż w języku angielskim synonimem ryzyka jest słowo hazard.

Pojęcie niepewności prezentuje się w kategoriach psychologicznych, albowiem wyznaczane jest przez wiarę. Za źródło uważa się nieokreśloność, złożoność oraz nieciągłość zjawisk zarówno społecznych jak i ekonomicznych. Zatem podanie dokładnie sprecyzowanej miary w tym zakresie staje się bardzo trudne. W konsekwencji, stosuje się tutaj zamiennie definicji zawodności czy wątpliwości w odniesieniu do osoby bądź rzeczy.

Znany ekonomista J.M. Keynes zakładał w przypadku ryzyka możliwość przewidzenia prawdopodobieństwa, z jakim wystąpi dane zdarzenie[5]. Zatem oceniano poziom za pomocą formuły matematycznej. Dla przykładu, prawdopodobieństwo wyrzucenia określonej cyfry kostką sześcienną do gry z wartościami od 1 do 6 wynosi 1/6. Inaczej wygląda sytuacja dla niepewności, albowiem brak danych o przyszłych zdarzeń wyklucza opcję obliczenia prawdopodobieństwa wystąpienia. W konsekwencji, nieznana jest cena kursu złotego czy baryłki ropy w perspektywie za kilka lat.

Podobnie jak pojęcie ryzyka, definicja przedsiębiorstwa nie posiada jednej definicji. Istnieje tu duża różnorodność. Jedną z przyczyn zaistniałej sytuacji jest odmienne podejście do zagadnienia przez wiele dyscyplin naukowych. Wymienia się tu m.in.: teorię ekonomii, nauki o zarządzaniu, cybernetykę, socjologię, prawo. Każda uwzględnia te elementy, które mają znaczenie z jej punktu widzenia.

Tradycyjna ekonomia neoklasyczna zakłada koncepcję przedsiębiorstwa o charakterze marginalistycznym. Jak wiadomo, każde przedsiębiorstwo kieruje się maksymalizacją zysków a minimalizacją kosztów.

W warunkach konkurencji doskonałej podejmuje się decyzje racjonalne w oparciu o dane porównawcze w zakresie relacji krańcowych kosztów a krańcowych przychodów czynników produkcji. Odnosząc się do zagadnienia zdefiniowania przedsiębiorstwa od strony nauk o zarządzaniu przedstawia się zorganizowaną jednostkę z przejrzystymi oraz konkretnymi zasadami racjonalności funkcjonowania.

Z cybernetycznego punktu widzenia porównuje się istnienie i funkcjonowanie firmy do żywego organizmu. Nastawiona jest na jak najdłuższy okres bytu. Zasilana jest z różnych źródeł. W przypadku wadliwości jakiegoś strumienia, system ma możliwość dalszego prosperowania – nie zanika. Dzięki takim zabiegom dochodzi do zabezpieczenia się przed ewentualnym upadkiem.

Zatem żywotność przedsiębiorstwa znacznie wydłuża się. Ponadto, sama w sobie wyodrębnia niemało podsystemów wzajemnie na siebie oddziałujących.

Z kolei podejście socjologiczne skupia się na kategoriach społecznych, ludzkich. Rozważa się wzajemne relacje między pracownikami danej instytucji, zachowaniami, motywacjami do pracy, stopniem zintegrowania i dbaniem o wspólne dobro przedsiębiorstwa, w którym pracuje się. Wiadomo bowiem, iż dobra atmosfera między zatrudnionymi wpływa na efektywność pracy. Im stosunki są lepsze, tym jakość i ilość wytwarzanych dóbr zwiększa się. W związku z tym, dochodzi do podwyższenia dochodów ze sprzedaży, co powinno przekładać się na większe profity dla pracowników za rzetelnie wykonaną pracę. Tego typu sekwencja przyczynowo – skutkowa stanowi jeden z ważnych mechanizmów funkcjonowania przedsiębiorstw.

Następnie prawo postrzega badaną jednostkę gospodarczą zwracając szczególną uwagę na zdolność do czynności prawnych. Reguluje się stosunki między przedsiębiorstwem a innymi podmiotami prawnymi bądź fizycznymi. Uwzględnia się także unormowania wewnętrzne. Kształtuje się własną sytuację prawną, przez co rozumie się nabywanie praw oraz zaciąganie zobowiązań. Bierze się tu także pod uwagę podatki, z których jednostka zmuszona jest wywiązać się w odpowiednim czasie. W przeciwnym wypadku mogą wystąpić sankcje, czyli wysokie kary pieniężne za nieterminowość uregulowania zaistniałych zobowiązań.

Istnienie kilku definicji przedsiębiorstwa nie oznacza, że wykluczają się. Przeciwnie, uzupełniają się, gdyż prezentuje się ten sam obiekt rozważań z różnych punktów widzenia. Dzięki rozmaitości kryteriów dostrzega się duże znaczenie jednostki. Widzi się, jaką rolę odgrywa nie tylko w kwestiach ekonomicznych, ale też społecznych czy prawnych.

Drugą przyczyną, wywierającą wpływ na zróżnicowanie pojęcia przedsiębiorstwa jest jego ulokowanie w gospodarce narodowej oraz zakres możności samodzielnego podejmowania decyzji, wynikająca z panującego ustroju polityczno – gospodarczego na terenie danego kraju. Gospodarka rynkowa każdego państwa rządzi się swoimi prawami. Wobec tego zróżnicowanie jest bardzo duże. Przykładowo, system gospodarczy Japonii znacząco różni się od występującego w Polsce. Dzięki kładzionemu naciskowi na rozwój nowych technologii, postęp techniczny, bardzo rozbudowany rynek eksportu, Japonia stała się czołowym przedstawicielem światowego przemysłu. Jest to państwo bardzo rozwinięte, zaś Polska należy do grupy krajów rozwijających się.

Jednakże nie tylko uwarunkowania ustrojowe i kondycja gospodarczo – finansowa danego państwa przyczynia się do zdefiniowania jednostki gospodarczej. Wpływają na to również czynniki warunkujące istnienie samej firmy. Ważna jest ilość zatrudnionych pracowników (kilka czy kilkuset ludzi), forma prawna (np. państwowe, prywatne, spółka), typ (jedno – czy wielosektorowy, krajowy, międzynarodowy) a nawet rodzaj prowadzonej działalności (produkcja, usługi, handel). Wobec tego parametry przedsięwzięcia pozwalalają na sklasyfikowanie podmiotu, podanie jego definicji.

W końcu radykalne przemiany na dużą skalę w przedsiębiorstwach nadają im nowych znaczeń. Niejednokrotnie zanikają jedne firmy a powstają inne na skutek bieżących potrzeb rynku, rozwoju nowych dziedzin gospodarki. W ostatnim czasie zauważa się wyraźne zainteresowanie takimi obszarami działalności jak: transport i gospodarka magazynowa, informacja i komunikacja, działalność profesjonalna, naukowa i techniczna, edukacja[6].

Jeszcze w 1939 r. została przedstawiona definicja przedsiębiorstwa przez uczonego J. Lisaka. Twierdził, że przedsiębiorca stoi na czele jednostki gospodarczej ponosząc pełne ryzyko na swój rachunek prowadząc interesy z zamiarem maksymalizacji rentowności[7]. Jednakże własne gospodarstwo domowe wyłącza się z kapitału przedsiębiorstwa. Z kolei zdaniem M. Schweitzer’a przedsiębiorstwo stanowi jednostkę zarówno techniczną, społeczną jak i gospodarczą ukierunkowaną na zaspakajanie potrzeb innych podmiotów przy samodzielnym podejmowaniu decyzji oraz pomnażaniu własnych zysków[8].

Polski ekonomista, naukowiec oraz dydaktyk Mieczysław Nasiłkowski precyzuje przedsiębiorstwo jako podmiot gospodarczy, który prowadzi na własną odpowiedzialność działalność o charakterze produkcyjnym bądź usługowym w celu osiągnięcia korzyści majątkowych. Wykorzystuje się takie czynniki jak: praca, kapitał, ziemia do wytwarzania dóbr bądź świadczenia usług, które następnie sprzedaje się na rynku a tym samym osiąga się zyski.

Wnioskuje się, że nie istnieje jedna definicja przedsiębiorstwa, zadawalająca wszystkich zainteresowanych. Wobec tego konieczne staje się przedstawienie cech charakterystycznych takich jednostek gospodarczych, odróżniających je od innych na rynku gospodarczym.

Zatem przedsiębiorstwo:

1. Ma charakter długotrwały;

2. Ukierunkowane jest na zaspakajanie swoimi produktami bądź usługami potrzeb otoczenia;

3. Uczestniczy w transakcjach kupna – sprzedaży, a więc dokonuje się wymiana dóbr na rynku;

4. Posiada własne zasoby kapitałowe niezbędne do prowadzenia działalności gospodarczej;

5. Ma możliwość samodzielnego podejmowania decyzji, czyli tzw. zasada autonomii;

6. Jest zdolne do samofinansowania się, a więc występujące koszty pokrywa się z uzyskiwanych przychodów. Określana także jako zasada równowagi finansowej;

7. Jest nazywane instytucja zarobkującą, albowiem dąży się do pozyskiwania określonych korzyści. Najczęściej jest to maksymalizacja dochodów z tytułu zaangażowanych funduszy;

8. Prowadzi działalność na własne ryzyko;

9. Musi działać zgodnie z prawem. Wszelkie czynności przestępcze są surowo karane[9].

Spełnienie powyższych cech jest równoznaczne z nadaniem danej jednostce gospodarczej określenia przedsiębiorstwa. Brak bądź ograniczenie w pewnym stopniu chociażby jednego czynnika wpływa na ułomność podmiotu.

Z kolei zgodnie z Ustawą o przedsiębiorstwach państwowych, mianem przedsiębiorstwa określa się samodzielnego, samorządnego i samofinansującego się przedsiębiorcę, który ma osobowość prawną[10]. Może powstać na zasadach ogólnych bądź też użyteczności publicznej[11]. Podejmowanie decyzji oraz realizacja działań jednostki gospodarczej w pełnym zakresie, niezbędnym do prawidłowego funkcjonowania i generowania zysków należy do organów przedsiębiorstwa. Jednakże powinny być zgodne z przepisami prawa. Ewentualną ingerencję organów państwowych w działalność przedsiębiorstwa określają przepisy ustawy.

Reasumując stwierdza się, że ryzyko to zespół czynników, działań bądź czynności, które przyczyniają się do szkody lub straty materialnej, finansowej danej jednostki[12]. Toteż następstwa są niepewne ze względu na występujący deficyt informacji. Jednakże znane jest prawdopodobieństwo wystąpienia poszczególnych zdarzeń. Ponadto, ukierunkowane jest na osiąganie zamierzonych celów. Szczególnie widoczne jest w gospodarce.

W większości przypadków przyjmuje negatywny aspekt z powodu braku realizacji postawionego zadania a tym samym poniesienia strat. Taki rodzaj ryzyka określa się mianem czystego. Jednakże istnieje alternatywa w formie ubezpieczenia się, czyli obrony przed niekorzystnymi skutkami przeprowadzonego zdarzenia, np. transakcji finansowej. Zaś w sytuacji przewidywania osiągnięcia zysku bądź innej korzyści, przyjmuje nazwę dynamicznego. Co więcej, dotyczy czynników subiektywnych oraz wewnętrznych. Rośnie wraz z upływem czasu. Różni się od niepewności, definiowanej jako stan o nieznanych zjawiskach, występujących w przyszłości[13].

Tak więc prawdopodobieństwo wystąpienia ewentualnych faktów jest trudne do oszacowania. Za podstawę istnienia przyjmuje się uwarunkowania zewnętrzne sytuacji gospodarczej danego rejonu, przyczyniającej się do poprawy warunków bytowych społeczeństwa.

Jak zostało wcześniej wskazane, istnieje wiele definicji przedsiębiorstwa. Mimo to stwierdza się, że jest to jednostka prowadząca samodzielnie i na własne ryzyko działalność gospodarczą w celu zaspokojenia potrzeb życiowych otoczenia społecznego dzięki produkcji dóbr oraz świadczenia usług niezbędnych na rynku w zamian za uzyskanie korzyści majątkowych. Dąży się do maksymalizacji rentowności. Ważna jest jakość sprzedawanych produktów, aby była zadawalająca dla potencjalnych klientów. W przeciwnym wypadku może powstać negatywny wizerunek przedsiębiorcy i firmy, co przyczyni się do zmniejszenia obrotów i wpływów.


4. 2  Rodzaje ryzyka i jego charakterystyka

Termin ryzyka nie jest jednoznacznie skonkretyzowany. Wynika to z faktu złożonego charakteru. Niemniej, każda podjęta decyzja równoznaczna jest z wystąpieniem ryzyka, które rośnie w perspektywie czasu. Toteż odgrywa bardzo ważną rolę w gospodarce, szczególnie w zakresie inwestycji zarówno krótko- jak i długoterminowych. Zatem wymagana jest szczególna ostrożność podmiotów zarządzających przedsiębiorstwami. Źle dokonany wybór w dostawcy towarów bądź ilości wyprodukowanych dóbr może kosztować jednostkę gospodarczą bardzo dużo środków pieniężnych.

Jednym z kryteriów podziału ryzyka jest działalność przedsiębiorstwa. Z tego tytułu wyróżnia się m.in. ryzyko[14]:

1) stałe

2) zmienne

Ryzyko stałe związane jest z pełnym systemem gospodarczym. Zatem uwzględnia takie czynniki jak poziom inflacji, bezrobocia.

Jak wskazuje Główny Urząd Statystyczny, przez inflację rozumie się wskaźnik cen towarów i usług konsumpcyjnych obliczany w oparciu o wyniki badań cen dóbr na rynku detalicznym a także badania budżetów domowych, wskazujących na ilość środków pieniężnych przeznaczanych na cele konsumpcyjne w danym gospodarstwie[15]. Jest to ogólny wzrost poziomu cen w gospodarstwie w określonym obszarze czasowym. Dla poprawności i dokładności obliczeń stosuje się Klasyfikację Spożycia Indywidualnego według celu.

Z kolei Ustawa o promocji zatrudnienia i instytucjach rynku pracy mianem osoby długotrwale bezrobotnej nazywa się podmiot, który jest zarejestrowany w powiatowym Urzędzie Pracy przez łączny okres ponad 12 miesięcy w ciągu ostatnich 2 lat z wyłączeniem czasu odbywania stażu oraz przygotowania zawodowego dla dorosłych[16]. Podobnie jak pojęcie przedsiębiorstwa tak i bezrobocia nie jest możliwa do konkretnego i przejrzystego zdefiniowania. Jednakże zauważa się pewna zależność między stopą inflacji a stopą naturalnego bezrobocia.

Jak wynika z powyższego rysunku, krzywa Phillipsa (LRPC – Long Run Phillips Curve) jest linią pionową. Wyznaczana jest przez tempo inflacji oraz naturalną stopę bezrobocia w warunkach równowagi. Zauważa się niezależność krzywej od stopy inflacji, czyli rocznej stopy zmiany poziomu wskaźnika cen detalicznych (CPI)[17]. Ze względu na fakt przewidywalności inflacji, społeczeństwo jest w stanie wcześniej przygotować się na zaistniałą w przyszłości sytuację. Wobec tego zwraca się szczególną uwagę na płace realne, będące na stałym poziomie zapewniającym uzyskanie stanu równowagi długookresowej.

Następny typ ryzyka nazywa się zmiennym i wiąże się z konkretnym przedsiębiorstwem. Wobec tego zakłada się pogorszenie sytuacji finansowej jednostki na skutek czego może pojawić się seria strajków bądź sytuacja likwidacyjna albo upadłościowa.

Podstawowy podział ryzyka ze względu na uczestnictwo przedsiębiorstwa w rynku kapitałowym przedstawia poniższy rysunek.

Rysunek 1 - Podstawowe rodzaje ryzyka w przedsiębiorstwie

Ryzyko rynkowe wiąże się z poniesieniem straty na skutek zmian cen aktywów, będących przedmiotem obrotu rynkowego z otoczeniem. Wyżej wymienione zasoby majątkowe znajdują się w dyspozycji danego przedsiębiorstwa. Ryzyko kredytowe jest ponoszone z tytułu straty finansowej w przypadku niewywiązania się dłużnika z zobowiązań. Inaczej jest to brak wypłacalności kontrahenta. W ówczesnym świecie coraz częściej dochodzi do zaprzestawania spłat długów z powodu braku środków pieniężnych.

Ryzyko operacyjne stanowi najbardziej obszerną kategorię w swojej dziedzinie. Definiuje się jako możliwość pojawienia się strat z takich przyczyn jak: niesprawności systemów informacyjnych, zbyt małej liczby kontroli, zawodności człowieka czy też źle podejmowanych decyzji przez kadrę zarządzająca.

Ryzyko biznesowe ściśle skorelowane jest z prowadzoną działalnością gospodarczą. Wiadomo, że każda podjęta decyzja pociąga za sobą określone konsekwencje. Wobec tego założone cele inwestycyjne firmy powinny dążyć do maksymalizacji rentowności, przy pomocy wykorzystywanej strategii rozwoju przedsiębiorstwa.

Ryzyko prawne oznacza poniesienie strat finansowych w przypadku przeprowadzania przedsięwzięć znajdujących się poza zasięgiem przepisów bądź norm prawnych. W związku z tym, nie istnieje możliwość wyegzekwowania ewentualnych ustaleń realizacji kontraktu, do którego można by się odnieść. Ryzyko to może przynieść zarówno wysokie zyski, jak i wysokie koszty. Często utożsamiane z zagadnieniem optymalizacji podatkowej, przez co rozumie się unikanie płacenia podatków.

Powyższy podział jest bardzo ogólny, albowiem można wyodrębnić jeszcze bardziej szczegółowy. Jednakże niektóre rodzaje ryzyka mogą przynależeć do więcej niż jednej grupy, dlatego też pozostaje się przy tym głównym.

4. 2. 1 Miary ryzyka

Ryzyko wiąże się z podejmowaniem decyzji inwestycyjnych. Szczególnie ważny w ujęciu długookresowym, albowiem może przynieść duże zyski bądź koszty. Dąży się do maksymalizacji rentowności wartości firmy, dlatego konieczna jest znajomość miar ryzyka m.in. wynikających z rozkładu stopy zwrotu, czyli podstawowej kategorii badającej opłacalność inwestycji w dany papier wartościowy. Stopa zwrotu z inwestycji (Return On Investment) wyliczana jest ze wzoru:

ROI = zysk przed spłatą odsetek (po opodatkowaniu) / kapitał zaangażowany

Istnieje wiele odmian wskaźnika ROI. W przypadku odniesienia na rentowność aktywów stosuje się Rate on Total Assets (ROA), zaś na kapitał własny spółki jest Rate of Equity (ROE).

ROA = zysk netto / średni stan aktywów ogółem

ROE = zysk netto / kapitał własny

Powyższe miary wykorzystuje się do szacowania inwestycji w okresach przynajmniej rocznych. Dzięki nim ocenia się efektywność posiadanego kapitału. Do obliczania stopy zwrotu z inwestycji w papiery wartościowe wykorzystuje się także poniższe wzory.

Ri – stopa zwrotu w okresie i

Pi – cena papieru wartościowego w okresie i

Pi-1 – cena papieru wartościowego w okresie i-1

Di – dywidenda wypłacana w okresie i

Przy wykorzystaniu prawdopodobieństwa wzór przybiera postać:

pi – prawdopodobieństwo osiągnięta t-tej możliwej stopy zwrotu

n – liczba wszystkich możliwych do osiągnięcia wartości stóp zwrotu

Im stopa zwrotu jest wyższa, tym lepiej. Okres t to najczęściej dzień, tydzień, miesiąc lub rok. Reasumując, stopa zwrotu jest funkcją czasu. Wysokość zysku (straty) z danej inwestycji zależy zarówno od podjętych decyzji jak też stanu natury w przyszłości, którego nie da się przewidzieć. Zatem występuje element niepewności, ryzyka, przed którym powinno się zabezpieczać. Poniżej wymienia się niektóre z miar ryzyka.


Wartość oczekiwana

1) dla zmiennej X typu skokowego

2) dla zmiennej X typu ciągłego

 

Własności wartości oczekiwanej:

E(b) = b, gdzie b jest stałą,

E(aX) = aE(X), gdzie a jest stałą,

   

Dla zmiennych X i Y niezależnych zachodzi:

E(XY)=E(X)E(Y)

Wariancja

1) dla zmiennej losowej

2) dla zmiennej X typu skokowego

3) dla zmiennej X typu ciągłego

Własności wariancji

gdzie a, b – stałe.

Dla zmiennych losowych X i Y niezależnych zachodzi:

Odchylenie standardowe stopy zwrotu to pierwiastek kwadratowy z wariancji stopy zwrotu. Wyraża się poniższym wzorem.

s2 – wariancja stopy zwrotu danego papieru wartościowego

1) dla danych indywidualnych (formuły nieważone)

2) dla danych ciągłych (formuły ważone)

3) dla danych historycznych

R – stopa zwrotu z danego papieru wartościowego

Ri – i – ta możliwa wartość stopy zwrotu

pi – prawdopodobieństwo osiągnięcia i-tej wartości stopy zwrotu

Odchylenie standardowe stopy zwrotu danego papieru wartościowego pokazuje, o ile przeciętnie na plus (minus) odchylają się przeciętne stopy zwrotu od oczekiwanej wartości. Im odchylenie jest wyższe, tym ponoszone ryzyko rośnie. Zatem wzrost odchylenia standardowego wiąże się z aspektem zwiększonej niepewności potencjalnego inwestora.

Przykład.

Na podstawie poniższych danych dla akcji spółki A oraz B obliczyć:

1) wartości oczekiwane stopy zwrotu z inwestycji

2)  wariancję stopy zwrotu

3) odchylenie standardowe stopy zwrotu

Scenariusz

1

2

3

4

5

Prawdopodobieństwo

0,1

0,2

0,4

0,2

0,1

Stopa zwrotu A

20%

10%

5%

0%

-10%

Stopa zwrotu B

7%

6%

5%

4%

3%

1)

Zatem

E(RA) = 0,1*20+0,2*10+0,4*5+0,2*0-0,1*10=5[%]

E(RB) = 0,1*7+0,2*6+0,4*5-0,2*4+0,1*3=5[%]

Ryzyko polega na zrealizowaniu średniej oczekiwanej stopy dochodu różnej od 5%.

Odchylenie od średniej dla akcji spółki A wynosi od -15% do + 15%, zaś w przypadku akcji spółki B od -2% do +2%. W rezultacie bardziej bezpieczne wydają się po wstępnej analizie akcje spółki B traktując ryzyko jako zmienność.

2)

D2(RA) = 0,1*(20-5)2+0,2*(10-5)2+0,4*(5-5)2+0,2*(0-5)2+0,1*((-10)-5)2=55%

D2(RB) = 0,1*(7-5)2+0,2*(6-5)2+0,4*(5-5)2+0,2*(4-5)2+0,1*(3-5)2=1,2%

3)    

W rezultacie wybiera się akcje spółki B, bo ryzyko jest mniejsze.

Współczynnik zmienności akcji

Powyższy współczynnik jest stosunkowo prosty w interpretacji. Pokazuje, jakie ryzyko przypada na jednostkę stopy zwrotu z akcji. Zatem powinno się inwestować w papiery wartościowe tych spółek, dla których współczynnik zmienności jest jak najmniejszy. Dzięki temu ogranicza się ryzyko maksymalnie. Nazywana także zasadą minimalnego ryzyka względem zysku. Jednakże nie zawsze istnieje możliwość korzystania z powyższego parametru. Stosowany dla stopy zwrotu dodatniej i różnej od zera. W przeciwnym wypadku przyjmowana byłaby wartość ujemna, co w konsekwencji doprowadziłoby do preferowania ujemnych stóp zwrotu. Jako relatywna miara ryzyka pozwala na obiektywny wybór portfela akcji.

Przykład.

Obliczyć współczynnik zmienności akcji dla indeksu giełdowego WIG oraz spółek Kamis i Knorr zakładając, że ich stopy zwrotu wynoszą odpowiednio: 0,0080; 0,0084; 0,0093, zaś odchylenie standardowe kształtuje się na poziomie: 0,066; 0,090; 0,106.

Na podstawie treści zadania wykonuje się poniższą tabelę.

Scenariusz

Stopa zwrotu R

Odchylenie standardowe s

WIG

0,0080

0,066

Kamis

0,0084

0,090

Knorr

0,0093

0,106

VWIG = 0,066/0,0080 = 8,25

VKamis = 0,090/0,0084 = 10,7

VKnorr = 0,106/0,0093 = 11,4

Na podstawie obserwacji wnioskuje się, że największą stopę zwrotu mają akcje spółki Knorr, jednakże najmniej ryzykowny jest indeks WIG. Współczynnik zmienności akcji umożliwia dokonanie obiektywnego wyboru, czyli kupna akcji spółki Kamis. Portfel ten ma relatywnie wysoką stopę zwrotu a zarazem ponoszone ryzyko plasuje się na średnim poziomie.

Każdy inwestor powinien znać zmiany ekstremalne, czyli minimalną i maksymalną stopę zwrotu z danej akcji oraz różnicę między nimi, określaną mianem rozstępu. Analiza w tym zakresie nie należy do najtrudniejszych, a stanowi czynnik bardzo użyteczny przy podejmowaniu decyzji czy monitorowaniu sytuacji papieru wartościowego na rynku.

Przykład.

Na podstawie danych z tabeli zinterpretuj osiągnięte wyniki.

Scenariusz

Maksymalna stopa zwrotu

Minimalna stopa zwrotu

Rozstęp

WIG

0,3399

-0,2890

0,6289

Kamis

0,4608

-0,4084

0,8692

Knorr

0,6667

-0,3682

1,0349

Przedstawione wyniki wskazują, że najbardziej ryzykowne są akcje spółki Kamis, albowiem osiągnęły najniższą minimalną stopę zwrotu (-40,84%). Zatem generują straty dla jego właściciela. Maksymalną stopę zwrotu osiągnęły akcje spółki Knorr przy względnie średnim poziomie minimalnej wartości stopy zwrotu. Rozstęp jest tu największy i świadczy o możliwości uzyskania największego zysku ale też poniesieniu największego ryzyka. Wiadomo bowiem, im wyższe ryzyko, tym większe możliwości osiągnięcia korzyści majątkowych. Jednakże trzeba liczyć się także z wystąpieniem ewentualnych niepowodzeń a tym samym strat.

Oczekiwane bezwzględne (absolutne) odchylenie od wartości oczekiwanej

Oczekiwane bezwzględne odchylenie od zera

Odchylenie ćwiartkowe, czyli średnia rozpiętość środkowych ćwiartek wyraża się wzorem:

Q1 – kwartyl dolny, czyli wartość poniżej której znajduje się 25 % wszystkich obserwacji

Q3 – kwartyl górny, czyli wartość poniżej której znajduje się 75% wszystkich obserwacji

Kwartyl drugi (mediana)

Jak wiadomo, inwestorzy dążą do maksymalizowania zysku przy jak największym ograniczaniu poziomu ryzyka. Zatem interesują się najwyższą stopa zwrotu z ulokowanego kapitału. Jednakże występująca asymetria rozkładu stopy zwrotu przyczynia się do wzrostu niepewności wśród przedsiębiorców a tym samym obarczenia większym ryzkiem danego portfela inwestycji. W celu minimalizacji skali ryzyka, oblicza się wielkość asymetrii stopy zwrotu z wzoru:

Co więcej, wynik asymetrii stopy zwrotu umożliwia podjęcie decyzji w przypadku zaistnienia takich samych wartości ze względu na stopę zwrotu oraz odchylenie standardowe dwóch różnych akcji. Wyróżnia się odpowiednio asymetrię lewostronną i prawostronną.

Źródło: Opracowanie własne.

Rysunek 3 - Wykres asymetrii lewostronnej

Rysunek 4 - Wykresy asymetrii prawostronnej

Dla przedsiębiorcy korzystniejsza jest asymetria prawostronna. Wynika to z faktu, iż prawdopodobieństwo zmniejszenia się stopy zwrotu do wartości oczekiwanej jest nieduże. Zatem prawdopodobne jest, że osiągnie się duże korzyści majątkowe. Podmiot dąży do uzyskania maksymalnej prawostronnej asymetrii.

Przykład.

Na podstawie poniższych danych dla akcji spółki A oraz B obliczyć asymetrię stopy zwrotu.

Scenariusz

1

2

3

4

5

Prawdopodobieństwo

0,1

0,2

0,4

0,2

0,1

Stopa zwrotu A

20%

10%

5%

0%

-10%

Stopa zwrotu B

7%

6%

5%

4%

3%

Na podstawie wcześniejszych obliczeń wiadomo:

D2(RA) = 0,1*(20-5)2+0,2*(10-5)2+0,4*(5-5)2+0,2*(0-5)2+0,1*((-10)-5)2=55%

D2(RB) = 0,1*(7-5)2+0,2*(6-5)2+0,4*(5-5)2+0,2*(4-5)2+0,1*(3-5)2=1,2%

Na podstawie uzyskanych wyników wnioskuje się, że rozkład jest symetryczny.

Ponadto w grupie miar zmienności ryzyka wyróżnia się klasę ryzyka czystego, czyli z możliwością pojawienia się konsekwencji negatywnych. Wobec tego wymienia się także poniższe miary ryzyka.

Semiwariancja stóp zwrotu stanowi miarę ryzyka przy ujemnych odchyleniach od stopy zwrotu. Występowanie ujemnego odchylenia oznacza, że stopa zwrotu jest niższa niż oczekiwana. W związku z tym potencjalny inwestor ponosi straty. Zatem na podstawie tylko niekorzystnych z punktu widzenia inwestora odchyleń od stopy zwrotu, uzyskuje się wzór na semiwariancję. Wyznacza on, o ile przeciętnie odchylają się możliwe stopy zwrotu od oczekiwanej stopy zwrotu na skutek niekorzystnej dla przedsiębiorcy sytuacji rynkowej.

1)

gdzie ujemne odchylenie od średniej przedstawia się w sposób następujący

Ri – wartość stopy zwrotu w okresie i E(R) – wartość oczekiwana stopy zwrotu

2)

Rt – wartość stopy zwrotu w okresie t

N – liczba obserwacji

Semiodchylenie standardowe to pierwiastek kwadratowy z semiwariancji stóp zwrotu.

Wartość ta jest zawsze mniejsza od odchylenia standardowego na skutek uwzględnienia wyłącznie ujemnych odchyleń, które znajdują się w mniejszości wszystkich odchyleń. Analiza odchyleń standardowych i semiodchyleń może posłużyć do badania normalności rozkładu stóp zwrotu danego papieru wartościowego. Wiadomo bowiem, iż w sytuacji  razy większego odchylenia standardowego od semiodchylenia, mamy do czynienia z rozkładem normalnym bądź mu zbliżonym. Zaś dla wariancji dwa razy większej od semiwariancji dochodzi do zjawiska symetryczności rozkładu.

Przykład.

Na podstawie poniższych danych dla akcji spółki A oraz B obliczyć semiodchylenie standardowe stóp zwrotu. Która jest bardziej korzystna dla potencjalnego inwestora?

Odpowiedź uzasadnij.

Scenariusz

1

2

3

4

5

Prawdopodobieństwo

0,1

0,2

0,4

0,2

0,1

Stopa zwrotu A

20%

10%

5%

0%

-10%

Stopa zwrotu B

7%

6%

5%

4%

3%

SVA = (0-5)2*0,2+(-10-5)2*0,1=27,5%

SVB = (4-5)2*0,2+(3-5)2*0,1=0,6%

Bardziej korzystne są akcje spółki B, albowiem semiodchylenie standardowe jest niższe niż dla akcji spółki A. W rezultacie występuje mniejsze ryzyko pojawienia się niekorzystnych sytuacji dla przedsiębiorcy.

Inną miarą ryzyka jest tzw. poziom bezpieczeństwa. Ten kwartyl stopy zwrotu określa się za pomocą wzoru:

R – stopa zwrotu

Rb – poziom bezpieczeństwa

α – wartość prawdopodobieństwa

Prawdopodobieństwo, że stopa zwrotu będzie równa co najwyżej poziomowi bezpieczeństwa jest niewielka. Jest mało prawdopodobne, że stopa zwrotu z inwestycji w akcje spadnie poniżej poziomu bezpieczeństwa. Ryzyko zainwestowanego kapitału jest tym mniejsze, im wyższa wartość poziomu bezpieczeństwa.

Miarą opartą na funkcji dystrybuanty jest prawdopodobieństwo nieosiągnięcia poziomu aspiracji.

R – stopa zwrotu

Ra – ustalona przez inwestora stopa zwrotu określająca poziom aspiracji

Stopa zwrotu będzie poniżej zadanej wartości tym niższe im niższe α. Ponadto, im wartość α mniejsza, tym lepiej.    

Jednakże najbardziej znaną a tym samym najczęściej stosowaną miarą ryzyka jest wartość zagrożona (Value at Risk –VaR). Definiowana jest jako maksymalna strata rynkowej wartości portfela bądź instrumentu finansowego, która jest możliwa do poniesienia w konkretnie określonym horyzoncie czasowym oraz przy założonym poziomie ufności. Oba czynniki wcześniej wymienione ustalane są przez zarząd firmy. Wobec tego VaR wyraża się wzorem:

α – poziom ufności

X – wartość inwestycji na koniec okresu (zmienna losowa)

X0 – wartość inwestycji na początek okresu (znana)

Powyższe równanie tłumaczy się, że z prawdopodobieństwem na poziomie ufności zachodzi zdarzenie polegające na tym, że wartość portfela na koniec okresu będzie mniejsza bądź równa wartości bieżącej pomniejszonej o wielkość miary zagrożenia VaR.

Stosowanie tej miary ryzyka wiąże się z uzyskaniem szeregu korzyści, m. in.:

1) stworzenie możliwości formułowania różnorodnych typów ryzyka w sposób jednolity

2) możliwość porównywania ryzyka wśród urozmaiconych grup zarówno aktywów jak i portfeli inwestycyjnych

3) prosty sposób interpretacji

4) bierze się pod uwagę dywersyfikację portfela, a więc jego zróżnicowanie pod względem posiadanych dóbr w celu rozproszenia ryzyka

5) stanowi standard międzynarodowy, rekomendowany przez Komitet Bazylejski ds. Nadzoru Bankowego, a w Polsce przez Generalny Inspektorat nadzoru Bankowego (GINB).

Jednakże miara ta nie jest wyłączona z posiadania wad. W tym zakresie wymienia się m. in.:

1) możliwość pojawienia się braku informacji o ewentualnych stratach w przypadku przewyższenia deficytu ponad wartość VaR

2) problemy z oszacowaniem miary zagrożenia dla dużych portfeli

3) wrażliwość na metodę estymacji.

Dowodzi się, że wartość zagrożona jest liniową funkcją poziomu bezpieczeństwa.

Dowód:

Reasumując, miara VaR jest przydatna w różnych przedsiębiorstwach. Stosowana jest głównie z powodu trzech czynników:

1. W przeważającej części instytucje finansowe posługują się dźwignią finansową. Zatem zasoby kapitałowe stanowią niewielką część w porównaniu do wartości nominalnej portfela danego przedsiębiorstwa. W konsekwencji nawet niewielka modyfikacja wielkości portfela może narazić podmiot na wzrost niebezpieczeństwa, a tym samym utratę wartości posiadanych aktywów.

2. Instytucje finansowe mają w swojej dyspozycji w głównej mierze płynne, zbywalne aktywa finansowe. Dzięki temu możliwe jest sprowadzenie ryzyka do ryzyka rynkowego oraz dokonania kalkulacji przez VaR.

3. Działalność przedsiębiorstw obarczona jest wysokim stopniem niepewności, poniesienia ewentualnych strat. Wobec tego wymaga się badania krótkoterminowych ekspozycji na ryzyko ekstremalne.

Dla instytucji o charakterze niefinansowym VaR również powinien odgrywać znaczącą rolę, jednakże niekoniecznie pierwszorzędną. Przedsiębiorstwa charakteryzujące się wysokim poziomem zadłużenia powinny zwrócić szczególną uwagę na mierniki ryzyka.


Przykład.

Czas trwania inwestycji to 1 miesiąc. Obecna wartość inwestycji wynosi 1 500 zł na poziomie ufności 5 %. Ponadto, VaR jest równe 200 zł. Co to oznacza dla potencjalnego inwestora?

Z powyższych informacji wynika, że prawdopodobieństwo osiągnięcia w tym miesiącu straty równej bądź większej niż 200 zł wynosi 5%. Zatem wartość portfela w następnym miesiącu nie będzie mniejsza niż 1 300 zł z 95% pewnością.

Ze względu na występujące wady miary VaR stosuje się alternatywnie miarę Expected

Shortfall (ES), nazywanej także jako Conditional Value AT Risk (CVaR), Average Value AT Risk (AVaR) bądź Expected Tail Loss (ETL).

α – poziom ufności

X – strata wartości instrumentów finansowych na koniec okresu (zmienna losowa)

VaRα(X) – wartość zagrożona na poziomie ufności α

obrotów i wpływów.

4. 2. 2  Znaczenie ryzyka

Nieodłącznym elementem każdej prowadzonej działalności gospodarczej jest ryzyko. Zarządzający kierując się dobrem określonej jednostki powinni zachować szczególną ostrożność przy podejmowaniu decyzji, aby nie narazić przedsiębiorstwa na zbędne koszta. Wiadomo bowiem, że głównym celem zarządzania jest poprawa wyników finansowych firmy. Dąży się do maksymalizacji rentowności prowadzonych działań. Nie wyklucza to ponoszenia nieprzewidzianych strat, które zawsze występują. Ważne jest jednak, by nie były one większe niż pierwotnie zakładano. Innymi słowy, ryzyko powinno się maksymalnie ograniczać a zarazem zabezpieczać się przed jego efektami. Zatem ściśle wiąże się z koniecznością identyfikacji każdego zagrożenia a następnie jego pomiaru i kontroli, by móc skutecznie z nim walczyć.

Zabezpieczanie się przed skutkami ryzyka prowadzi się w sposób pasywny bądź aktywny. Pierwsze podejście, jak sama nazwa wskazuje, oznacza ponoszenie ryzyka bez jakichkolwiek prób jego ograniczania. Uwydatnia brak profesjonalizmu zarządzających w swoich czynnościach. Nie identyfikuje się ryzyka, nie szacuje się jego skali ani nie podejmuje się starań w celu minimalizacji negatywnego zjawiska. Zupełnie odwrotnie prezentuje się postawa aktywna, która zmierza do wszczęcia wszelkich czynności ku zniwelowaniu niepożądanego zjawiska. Działania podejmuje się na tyle wcześnie, by nie wystąpiły daleko idące skutki trudne do usunięcia.

Ryzyko kontroluje się w ujęciu fizycznym bądź finansowym. Przez fizyczną kontrolę ryzyka rozumie się czynności, mające na celu zredukowanie poniesionych już strat lub określenia prawdopodobieństwa, z jakim pojawią się szkody. Ważna jest znajomość częstotliwości oraz rozmiarów ewentualnego zagrożenia. Dzięki temu istnieje możliwość przyjęcia bardziej skutecznych działań o charakterze kontrolno – zabezpieczającym.

Z kolei podejście finansowe polega przede wszystkim na samodzielności w zarządzaniu ryzykiem przez przedsiębiorstwo. Zatem ewentualne straty pokrywa się przez np.  przepływy pieniężne, sprzedaż aktywów, pożyczki. Mimo to zdarza się przeniesienie odpowiedzialności za ryzyko na inny podmiot. Może przybierać dwie formy. Jedna to obciążenie jednostki zewnętrznej ta częścią przedsiębiorstwa, która jest obarczona dużym ryzykiem. Druga to korzystanie z usług ubezpieczalni, które powinny rekompensować wysokość poniesionych uszczerbków finansowych na działalności przedsiębiorstwa w zamian za odprowadzane składki przez jednostkę. Wiadomo bowiem, że w każdym przedsiębiorstwie handlowym źródło potencjalnych zagrożeń może wynikać nie tylko z prowadzonej aktywności na rynku, ale też uzależnienia się od jednego bądź niewielu dostawców/odbiorców, działań politycznych czy nieprzewidzianych sił natury, np. występujących suszy, powodzi, tornad. W związku z tym, przedsiębiorstwa powinny być wyposażone w ubezpieczenia.

Reasumując, ryzyko towarzyszy każdej działalności człowieka. Prawidłowa identyfikacja zagrożenia powinna wiązać się z analizą strategii przedsiębiorstwa na wypadek zaistnienia niepożądanej sytuacji, w tym z badaniem słabych i mocnych stron przedsiębiorstwa przy uwzględnieniu występującego otoczenia. Zatem oczekuje się dokonania analizy SWOT (Strengths, Weaknesses, Opportunities, Threats). Posiadając wiedzę na temat niedoskonałości w określonym zakresie danego przedsiębiorstwa, zaleca się zabezpieczenie przed ryzykiem i poniesieniem potencjalnych strat. 

4. 3 Modele zarządzania ryzykiem w przedsiębiorstwie

4. 3. 1  Model Sharpe’a

Model Sharpe’a charakteryzuje się tym, że stopy zwrotu z akcji uzależnione są od działania czynnika, którym w głównej mierze jest czynnik rynkowy. Zazwyczaj występuje pod postacią indeksu giełdowego. Biorąc pod uwagę WIG (Warszawski Indeks Giełdowy) zauważa się pewną zależność. Wzrost tego indeksu na rynku generuje zwiększanie się ceny zdecydowanej większości akcji i odwrotnie – spadek przyczynia się do obniżenia wartości papierów wartościowych. Zależność stopy zwrotu z akcji od stopy zwrotu z rynku (indeksu giełdowego) określa poniższe równanie regresji liniowej:

Ri – stopa zwrotu z i – tej akcji

Rm – stopa zwrotu z indeksu giełdowego

αi, βi – współczynniki równania

εi – składnik losowy równania

Zmienną objaśnianą w równaniu regresji liniowej jest stopa zwrotu z akcji, zaś zmienną objaśniającą stopa zwrotu indeksu rynkowego. Oszacowane powyższe równanie określa się linią charakterystyczną papieru wartościowego. Najważniejszy jest współczynnik beta (βi), który pokazuje o ile procent w przybliżeniu wzrośnie stopa zwrotu z akcji w przypadku zwiększenia się o 1% stopy zwrotu z indeksu giełdowego.

W celu oszacowania linii charakterystycznej wykorzystuje się tzw. metodę najmniejszych kwadratów. Polega na minimalizacji wyrażenia:

Rit – stopa zwrotu z i – tej akcji w t- tym okresie

Rmt – stopa zwrotu z indeksu giełdowego w t – tym okresie

W konsekwencji uzyskuje się następujące wyprowadzenia wzorów:

n – liczba okresów

- średnia arytmetyczna stóp zwrotu z i – tej akcji

- średnia arytmetyczna stóp zwrotu wskaźnika rynkowego

Parametr βi jako miara ryzyka a zarazem tzw. współczynnik agresywności akcji stanowi dla potencjalnego inwestora najważniejszy czynnik decyzyjny równania regresji. Informuje on, w jak dużym stopniu stopa zwrotu z akcji jest wrażliwa na zmiany rynkowe. W zależności od przyjmowanej wartości, przyjmuje różne znaczenie.

Zatem:

1) βi  < 0 – stopa zwrotu z i – tej akcji reaguje na zmiany odwrotnie niż rynek. Pojawia się korelacja negatywna. Zjawisko to jest rzadko spotykane

2) βi  = 0 – stopa zwrotu z i – tej akcji nie reaguje na rynek. Papier wartościowy wolny od ryzyka, brak zagrożeń z tytułu ryzyka finansowego na rynku inwestycyjnym. Przykładem jest obligacja wyemitowana przez rząd

3) 0 < βi  < 1 – stopa zwrotu z i – tej akcji w niewielkim stopniu reaguje na zmiany. Akcja określana jest mianem defensywnej

4) βi  = 1  – stopa zwrotu z i – tej akcji zmienia się równolegle ze zmianami na rynku (na takim samym poziomie jak zmiany rynkowe). Występuje idealna pozytywna korelacja z rynkiem, czyli wzrost (spadek) o 1% stopy zwrotu na rynku jest równoznaczny ze wzrostem (spadkiem) w przybliżeniu o 1% stopy zwrotu z danej akcji spółki

5) βi  > 1 – stopa zwrotu z i – tej akcji w dużo większym stopniu reaguje na zmiany. Akcja określana jest mianem agresywnej, albowiem wzrost (spadek) stopy zwrotu na rynku o 1% generuje wzrost (spadek) w przybliżeniu o więcej niż 1% stopy zwrotu danej spółki

Model Sharpe’a jest bardzo użyteczny, gdyż pozwala na zbadanie wielkości ryzyka dla określonego waloru.

Całkowite ryzyko papieru wartościowego oblicza się przy pomocy wzoru:

- wariancja i – tej akcji (ryzyko całkowite)

- wariancja indeksu giełdowego

- wariancja składnika losowego

Jak wskazuje powyższy wzór, ryzyko całkowite stanowi suma ryzyka niezdywersyfikowanego (ryzyko rynku – market risk) oraz zdywersyfikowanego (ryzyko specyficzne – specific risk).

Ryzyko rynku (systematyczne) to

Ryzyko specyficzne to

                      σ

        

        

                                                                Ryzyko specyficzne

Rysunek 6 - Budowa ryzyka całkowitego

Na podstawie modelu Sharpe’a wnioskuje się, że obliczona wartość ryzyka całkowitego jest wyższa niż ryzyko obliczane przy pomocy odchylenia standardowego.


Literatura do rozdziału 4

  1. Begg D., Fischer S., Dornbusch R., Mikroekonomia, Polskie Wydawnictwo Ekonomiczne, Warszawa, 2007.
  2. Kaczmarek T. T., Ryzyko i zarządzanie ryzykiem, Wydawnictwo Difin, Warszawa, 2006.
  3. Kulapa W., Matematyczne aspekty ekonomii, Wydawnictwo Uniwersytetu Kardynała Stefana Wyszyńskiego, Warszawa, 2008.
  4. Mały Rocznik Statystyczny Polski 2013, GUS, Warszawa, 2013.
  5. Ustawa o promocji zatrudnienia i instytucjach rynku pracy z dnia 20 kwietnia 2004r., Dz. U. z 2013 r. nr 99 poz. 1001.
  6. Ustawa o przedsiębiorstwach państwowych z dnia 25 września 1981r.,
    Dz. U. z 2013 r. poz. 1384.
  7. Sudoł A., Przedsiębiorstwo. Podstawy nauki o przedsiębiorstwie. Zarządzanie przedsiębiorstwem, Polskie Wydawnictwo Ekonomiczne, Warszawa, 2006.
  8. Tarczyński W., Mojsiewicz M., Zarządzanie ryzykiem, Polskie wydawnictwo ekonomiczne, Warszawa 2001.


5  BEZPIECZEŃSTWO EKONOMICZNE, MIARY I MODEL RYZYKA

Podstawowe wiadomości o ubezpieczeniach i ryzyku.

Definicje ubezpieczenia.  Zmienne

W paragrafie tym omówię zmienne losowe i ich własności występujące w procesie ryzyka [1-7].

Na początek omówię zmienną losową K, która oznacza liczbę szkód spowodowanych przez dane ryzyko lub portfel ryzyka w jednym roku i są one równe 0,1,2,… z odpowiednimi prawdopodobieństwami  .

Często korzysta się z dystrybuanty empirycznej tzn. wielkości  szacuje się za pomocą obserwowanych częstości, z jakimi K przyjmowała wartość k=0,1,2,… w przeszłości. Kryterium to nie zawsze jest dobre ze względu na to, że z powodu częstych zmian realiów przeszłości nie jest reprezentatywna dla przyszłości. Dlatego też wśród danej rodziny dystrybuant powinno się szukać, wykorzystując procedury statystyczne, rozkładu najlepszego[2-17].

Niech p oznacza prawdopodobieństwo wystąpienia szkody w pewnym ryzyku w ciągu roku.

Ekonomia matematyczna to kierunek w ekonomii zajmujący się badaniem szeroko pojętych zjawisk gospodarczych przy użyciu zaawansowanych technik matematycznych, tj. analiza szeregów czasowych czy programowanie dynamiczne. Współczesna ekonomia głównonurtowa w coraz większej mierze odwołuje się do tych metod, niemniej podział na matematyczny i instytucjonalny nurt w ekonomii jest wciąż widoczny.

Jednymi z podstawowych zagadnień ekonomii matematycznej są modele wzrostu gospodarczego oraz poszukiwań pracy [5-17].

        Szereg czasowy to realizacja procesu stochastycznego, którego dziedziną jest czas; to ciąg informacji uporządkowanych w czasie, których pomiary wykonywane są z dokładnym krokiem czasowym. Jeżeli krok nie będzie regularny wtedy mamy do czynienia z szeregiem czasowym rozmytym [7-9].

        Programowanie dynamiczne jest techniką lub strategią projektowania algorytmów, stosowaną przeważnie do rozwiązywania zagadnień optymalizacyjnych. Jest alternatywą dla niektórych zagadnień rozwiązywanych za pomocą algorytmów zachłannych. Wynalazcą techniki jest amerykański matematyk Richard Bellman. Programowanie dynamiczne opiera się na podziale rozwiązywanego problemu na podproblemy względem kilku parametrów. W odróżnieniu od techniki dziel i zwyciężaj podproblemy w programowaniu dynamicznym nie są na ogół rozłączne, ale musi je cechować własność optymalnej podstruktury. Zagadnienia odpowiednie dla programowania dynamicznego cechuje również to, że zastosowanie do nich metody siłowej prowadzi do ponad wielomianowej liczby rozwiązań podproblemów, podczas gdy sama liczba różnych podproblemów jest wielomianowa.

        Model ekonomiczny jest to uproszczony obraz rzeczywistości ekonomicznej. Stosuje się go, aby uzyskać uproszczony, ale przejrzysty obraz rzeczywistości. Próba przedstawienia całej rzeczywistości gospodarczej jest bezcelowa i z góry skazana na niepowodzenie ze względu na nieskończoną ilość szczegółów [10-17].

        Założenia upraszczające modelu ekonomicznego mogą dotyczyć każdej kwestii: m. in. zarobków społeczeństwa, polityki zagranicznej państwa, a także podstawowych kategorii ekonomicznych jak cena  lub inflacja.

        Model matematyczny opisujący dane zjawisko zachodzące w ekonomii może mieć postać między innymi funkcji, równania, układu równań. Proste modele ekonomiści łączą w złożone systemy, dzięki którym jesteśmy w stanie odpowiedzieć na szereg istotnych pytań. Dzięki tak utworzonym modelom opisującym zjawiska zachodzące w gospodarce jesteśmy również w stanie analizować skutek podejmowanych decyzji nim zostaną one jeszcze podjęte.

        Przykładem najprostszego ekonomicznego modelu matematycznego może być model popytu na dobro - popyt na dobro zależy tylko od ceny tego dobra. Wówczas zależność tę zapiszemy w postaci równania, które odczytujemy następująco popyt jest funkcją ceny.

        Zadaniem ekonomii matematycznej jest analiza gotowych już modeli ekonomicznych - może to polegać na próbie odpowiedzi na pytania "co się stanie jeżeli wartość jednej ze zmiennych ulegnie zmianie?", "dla jakich wartości zmiennych model będzie znajdował sie w równowadze?", "ile powinniśmy produkować aby zysk całkowity osiągnął wartość maksymalną?", itp. Aby odpowiedzieć na te i podobne pytania ekonomia matematyczna wykorzystuje, np.. rachunek różniczkowy, rachunek całkowy oraz algebrę macierzy [10-17].

        Ekonomia matematyczna stanowi uzupełnienie innych obszarów nauki, takich jak:

        Analiza równowagi jest to badanie stanu równowagi i obejmuje m.in. formułowanie warunków, jakie muszą być spełnione aby stan równowagi miał miejsce oraz wyznaczanie wartości zmiennych modelu, dla których model będzie znajdował się w tym stanie.

Równowaga jest definiowana w ekonomii jako stan, w którym nie występują tendencje do zmian. Wszystkie zmienne danego modelu znajdują się w tak zwanym stanie spoczynku. Przy definiowaniu równowagi, stan spoczynku występuje, gdy wszystkie wewnętrzne siły modelu zostaną zrównoważone natomiast siły zewnętrzne są ustalone z założenia. Oznacza to, iż parametry oraz zmienne egzogeniczne modelu są w analizie równowagi traktowane jako stałe. Jeżeli czynniki zewnętrzne uległy by zmianie, wówczas stan równowagi może ulec także zmianie.

Stan równowagi nie zawsze jest stanem pożądanym. Przykładowo z pewnością nie jest stanem pożądanym równowaga w gospodarce przy niepełnym zatrudnieniu lub przy bardzo wysokich stopach procentowych. Poszukiwanie stanu równowagi optymalnego nazywa się równowagą celu.


Częściowa równowaga rynkowa - model liniowy rynku jednego dobra

        W sytuacji gdy rozważamy model izolowanego rynku jednego dobra, tzw. model częściowej równowagi, wówczas równowagą rynkową będzie taka sytuacja na rynku, w której - przy danej cenie  wielkość popytu na określone dobro jest równa wielkości podaży tego dobra [1-7].

Ilustracją graficzną stanu równowagi rynkowej jest punkt przecięcia się krzywych popytu i podaży, tzw. punkt równowagi rynkowej.

Rozważając model jednego dobra, w modelu wystarczy uwzględnić trzy zmienne:

- wielkość popytu na dane dobro (Qd ), 

- wielkość podaży dobra (Qs ), 

- cenę dobra (p).

Aby model znajdował się w stanie równowagi, musi być spełniony warunek równowagi rynkowej, popyt musi być równy podaży:     Qd = Qs . 

gdzie,   Qd = a - bP   (a, b > 0) - wzór ogólny na funkcję popytu ,

        Qs = -c + dP   (c, d > 0) - wzór ogólny na funkcję podaży.

Model złożony jest z jednego warunku równowagi oraz dwóch równań behawioralnych. Dla funkcji popytu i podaży parametry  a  i  -c  wskazują na punkty przecięcia tych funkcji z osią pionową, natomiast parametry  -b  i  d  są równe tangensowi kątów nachylenia tych funkcji.

Wartości Qd, Qs i P które spełniają jednocześnie trzy równania nazywane są wartościami równowagi.  Ponieważ Qd = Qs można je zastąpić symbolem Q.

Rozwiązaniem omawianego modelu liniowego, przy uwzględnieniu poczynionych założeń, jest uporządkowana para (P, Q).

Wyznaczanie maksymalnego popytu na dane dobro.

        W celu wyznaczenia maksymalnego popytu na dane dobro na rynku przyjmujemy cenę produktu równą zero P = 0 i z funkcji popytu Qd = a – bP wyznaczamy wielkość popytu maksymalnego Qdmax na tym rynku [10-17].

Wyznaczanie ceny powyżej której producenci oferują produkt na rynku

        Głównym celem działalności producentów jest maksymalizacja zysku. W związku z tym producenci będą oferować dobra na rynku kiedy uzyskana przez nich cena sprzedaży pokryje ich koszty produkcji i zapewni zysk ze sprzedaży. W celu wyznaczenia ceny Pmin powyżej której producenci rozpoczną oferować produkty na rynku należy dla funkcji podaży Qs = -c + dP przyjąć wielkość podaży równą zero Qs = 0.

Przykład

        Dany jest model rynku jednego, izolowanego dobra, zapisany w postaci układu dwóch równań:                                      Qd = 19 - p ,

Qs = - 8 + 2p.

Wyznacz punkt równowagi rynkowej na tym rynku oraz oblicz jaki jest maksymalny popyt Qdmax na tym rynku, a także oblicz cenę Pmin powyżej której producenci będę oferować produkty na rynku.

W celu wyznaczenia punktu równowagi rynkowej rozwiązujemy układ równań złożony z funkcji popytu i podaży:

Qd = 19 – p,

Qs = - 8 + 2p .

Układ ten można rozwiązać eliminując równania i zmienne przez podstawienie.

Pamiętając o warunku równowagi, przyjmujemy że Q = Qs = Qd i podstawiamy pierwsze równanie do drugiego. Otrzymujemy w ten sposób jedno równanie z jedną zmienną:

19 - p = - 8 + 2p.

Z tego równania wyznaczamy cenę równowagi rynkowej:     p = 9.

Aby obliczyć wartość równowagi Q = Qd = Qs, należy podstawić wyznaczoną cenę równowagi rynkowej p do dowolnego równania popytu lub podaży:

Q = Qd = 19 - 9 = 10     lub     Q = Qs = -8 + 2 9 = 10

W ten sposób wyznaczona została wartość równowagi rynkowej Q = Qd = Qs = 10 oraz cena równowagi rynkowej p = 9.

Maksymalny popyt Qdmax na tym rynku obliczamy podstawiając cenę P = 0 do funkcji popytu Qd = 19 – p. Obliczona wartość Qdmax = 19  i jest to szukana przez nas wartość.

Cenę Pmin powyżej której producenci rozpoczną oferować produkty na rynku obliczamy podstawiając do funkcji podaży Qs = - 8 + 2p wielkość podaży równą zero Qs = 0. 

0 = -8 + 2P       P = 4.

Zatem obliczona cenę Pmin powyżej której producenci rozpoczną oferować produkty na rynku wynosi 4.

Częściowa równowaga rynkowa - model nieliniowy rynku jednego dobra

        Aby model rynku jednego dobra, w którym funkcje popytu i/lub podaży nie są funkcjami liniowymi, znajdował się w równowadze, musi być spełniony taki sam warunek równowagi rynkowej jak w przypadku modelu liniowego. Mianowicie wielkość popytu musi być równa wielkości podaży (Qd = Qs lub Qd - Qs = 0).

W modelu nieliniowym rynku jednego dobra również należy uwzględnić trzy zmienne:

wielkość popytu na dane dobro, wielkość podaży dobra oraz cenę dobra.

Wyznaczenie ceny równowagi rynkowej i wielkości popytu/podaży dla tej ceny również polega na rozwiązaniu układu dwóch równań z dwoma niewiadomymi.

Model ogólnej równowagi rynkowej

        W rzeczywistości gospodarczej sytuacja wygląda w ten sposób, iż dla danego dobra występuje zwykle wiele dóbr substytucyjnych i komplementarnych. Jesteśmy w stanie wyróżnić szereg dóbr, które są wzajemnie powiązane. Dlatego też, chcąc wyznaczyć ogólną równowagę rynkową należy w modelu uwzględnić wszystkie dobra jakie są produkowane, sprzedawane na rynku. Rezultatem będzie Walrasowski rodzaj modelu równowagi ogólnej, w którym popyt/podaż na dane dobro jest funkcją cen wszystkich dóbr w gospodarce.

W ogólnym przypadku dla rynku n - dóbr funkcje popytu i podaży można zapisać w następujący sposób:    Qdi=Qdi(P1,P2,…,Pn),     Qsi=Qsi(P1,P2,…,Pn)    (i=1,2,…,n).

Wówczas warunek ogólnej równowagi rynkowej będzie następujący:   Qdi=Qsi   (i=1,2,…,n).

Aby występował stan równowagi na rynku n - dóbr, na rynku każdego z tych dóbr wielkość popytu musi być równa wielkości podaży.

Wyznaczanie funkcji popytu i podaży

        W przypadku gdy nie mamy w treści zadania podanych funkcji popytu lub/i podaży możemy te funkcje wyznaczyć na podstawie podanych w zadaniu danych.

Przykładowo mając dane dwa punkty opisujące popyt:

P1 = 5    Qd1 = 17 ,

P2 = 7    Qd2 = 15 .

Możemy wyznaczyć funkcję popytu Qd obrazującą powyższe zależności.

I sposób

Wykorzystujemy wzór na równanie prostej przez dwa punkty:

y-y1=.

Przekształcamy to równanie za y przyjmując wielkość popytu Qd a za x cenę P:

Qd-Qd1=.

Po podstawieniu po powyższego równania naszych danych otrzymujemy:

Qd 17 =,

Qd 17 =,

Qd 17 P 5.

Szukana przez nas funkcja popytu to:   QdP 22.

II sposób

Wykorzystujemy wzór ogólny na funkcję popytu:

Qd aP b

Tworzymy układ równań podstawiając poszczególne punkty:





Rozwiązaniem tego układu równań są wartości:  a = 1   oraz  b = 22.

Możemy już zatem wyznaczyć szukaną funkcję popytu która przyjmie następującą postać:

Qd P 22.

Matematyka aktuarialna – dział matematyki stosowanej obejmujący zagadnienia m. In. Rachunku prawdopodobieństwa, statystyki, matematyki finansowej, metod numerycznych i koncentrujący się na zastosowaniach w dziedzinie ubezpieczeń. W matematyce ubezpieczeń życiowych głównym ryzykiem jest możliwość zgonu. Inwalidztwo, utrata możliwości zarobkowania, choroba wymagająca długotrwałego kosztownego leczenia, a także inne porównywalne zdarzenia losowe mogą być czasem podobnie dotkliwe dla rodziny ubezpieczonego jak jego śmierć. Aby móc zajmować się takimi ubezpieczeniami niezbędny jest matematyczny model uwzględniający wystąpienie jednego z kilku zdarzeń będących podstawą wypłaty świadczenia w odpowiedniej dla zadanej szkody wysokości. Jest to model szkodowości wielorakiej. Do podstawowych zagadnień należy modelowanie rozkładu łącznej wartości szkód w modelu ryzyka łącznego lub indywidualnego.

Efekt substytucyjny- zmiana stosunku nabywanych dóbr wywołana zmianą ceny jednego z nich. Wraz z efektem dochodowym opisuje wpływ zmiany ceny na siłę nabywczą i decyzje konsumenta. Aby opisać efekt substytucyjny uwzględniamy zmianę ceny jednego z dóbr i takie dostosowanie dochodu, aby mimo tej zmiany siła nabywcza konsumenta pozostała stała [3-7].

Kierunek działania efektu substytucyjnego:

Efekt substytucyjny zmienia się zawsze w kierunku przeciwnym niż zmiana ceny. Oznacza to, że jeśli cena produktu rośnie to w wyniku działania efektu substytucyjnego wielkość popytu nań maleje.

Interpretacja graficzna:

Graficznie osiągamy to dokonując obrotu linii ograniczenia budżetowego wokół początkowego koszyka dóbr, czyli punktu optimum konsumenta. W efekcie koszyk ten pozostaje w finansowym zasięgu konsumenta i w tym znaczeniu jego siła nabywcza pozostaje niezmieniona. Nowa linia ograniczenia budżetowego jest jednak styczna do wyżej położonej krzywej obojętności, więc punkt równowagi konsumenta ulega przesunięciu w kierunku dobra relatywnie tańszego.

Efekt dochodowy obrazuje wpływ zmiany ceny produktu na zmianę zgłaszanego zapotrzebowania na ten produkt, a spowodowanego zmianą siły nabywczej dochodu konsumenta.

Obniżenie ceny zwiększa dochód konsumenta, a tym samym umożliwia mu zakup większej ilości każdego produktu.

Podwyższenie ceny tymczasem powoduje spadek możliwej do zakupienia ilości produktów, spowodowany zmniejszeniem siły nabywczej dochodu [1-7].

Elastyczność popytu – relacja między wyrażoną w procentach zmianą popytu, a wyrażoną w procentach zmianą czynnika, który tę zmianę wywołał. Elastyczność popytu można określić tylko w odniesieniu do tych czynników kształtujących popyt, które da się zmierzyć. Informuje o wrażliwości popytu na zmiany czynników go kształtujących zewnętrznych i wewnętrznych.

Niech:  

- liczba konsumentów,  – popyt                                               - procentowa zmiana q                                                             - procentowa zmiana ceny p                                                       - procentowa zmiana dochodów konsumenta                           - elastyczność funkcji

Wykres poniżej przedstawia elastyczność popytu zależnego od ceny p i ilości dóbr q: Nachylenie wykresu to:

Krzywa_elasty_popytu.jpg

Elastyczność  popytu wyraża się wzorem :

Zazwyczaj elastyczność podajemy jako jej wartość bezwzględną .

Gdy  to popyt jest elastyczny, gdy  to popyt jest nieelastyczny, natomiast gdy  jest to jednostkowa elastyczność popytu.

        Model ekonomiczny jest to uproszczony obraz rzeczywistości ekonomicznej. Stosuje się go, aby uzyskać uproszczony, ale przejrzysty obraz rzeczywistości. Próba przedstawienia całej rzeczywistości gospodarczej jest bezcelowa i z góry skazana na niepowodzenie ze względu na nieskończoną ilość szczegółów.

        Założenia upraszczające modelu ekonomicznego mogą dotyczyć każdej kwestii:

        Model matematyczny opisujący dane zjawisko zachodzące w ekonomii może mieć postać między innymi funkcji, równania, układu równań. Proste modele ekonomiści łączą w złożone systemy, dzięki którym jesteśmy w stanie odpowiedzieć na szereg istotnych pytań. Dzięki tak utworzonym modelom opisującym zjawiska zachodzące w gospodarce jesteśmy również w stanie analizować skutek podejmowanych decyzji nim zostaną one jeszcze podjęte [1-7].

        Przykładem najprostszego ekonomicznego modelu matematycznego może być model popytu na dobro - popyt na dobro zależy tylko od ceny tego dobra. Wówczas zależność tę zapiszemy w postaci równania, które odczytujemy następująco popyt jest funkcją ceny.

        Częściowa równowaga rynkowa - model liniowy rynku jednego dobra

        W sytuacji gdy rozważamy model izolowanego rynku jednego dobra, tzw. model częściowej równowagi, wówczas równowagą rynkową będzie taka sytuacja na rynku, w której - przy danej cenie  wielkość popytu na określone dobro jest równa wielkości podaży tego dobra.

Ilustracją graficzną stanu równowagi rynkowej jest punkt przecięcia się krzywych popytu i podaży, tzw. punkt równowagi rynkowej.

Rozważając model jednego dobra, w modelu wystarczy uwzględnić trzy zmienne:

- wielkość popytu na dane dobro (Qd ), 

- wielkość podaży dobra (Qs ), 

- cenę dobra (p).

Aby model znajdował się w stanie równowagi, musi być spełniony warunek równowagi rynkowej, popyt musi być równy podaży:     Qd = Qs . 

gdzie,   Qd = a - bP   (a, b > 0) - wzór ogólny na funkcję popytu ,

        Qs = -c + dP   (c, d > 0) - wzór ogólny na funkcję podaży.

Model złożony jest z jednego warunku równowagi oraz dwóch równań behawioralnych. Dla funkcji popytu i podaży parametry  a  i  -c  wskazują na punkty przecięcia tych funkcji z osią pionową, natomiast parametry  -b  i  d  są równe tangensowi kątów nachylenia tych funkcji.

Wartości Qd, Qs i P które spełniają jednocześnie trzy równania nazywane są wartościami równowagi.  Ponieważ Qd = Qs można je zastąpić symbolem Q.

Rozwiązaniem omawianego modelu liniowego, przy uwzględnieniu poczynionych założeń, jest uporządkowana para (P, Q).

Wyznaczanie maksymalnego popytu na dane dobro.

        W celu wyznaczenia maksymalnego popytu na dane dobro na rynku przyjmujemy cenę produktu równą zero P = 0 i z funkcji popytu Qd = a – bP wyznaczamy wielkość popytu maksymalnego Qdmax na tym rynku.

Częściowa równowaga rynkowa - model nieliniowy rynku jednego dobra

        Aby model rynku jednego dobra, w którym funkcje popytu i/lub podaży nie są funkcjami liniowymi, znajdował się w równowadze, musi być spełniony taki sam warunek równowagi rynkowej jak w przypadku modelu liniowego. Mianowicie wielkość popytu musi być równa wielkości podaży (Qd = Qs lub Qd - Qs = 0).

W modelu nieliniowym rynku jednego dobra również należy uwzględnić trzy zmienne:

wielkość popytu na dane dobro, wielkość podaży dobra oraz cenę dobra.

Wyznaczenie ceny równowagi rynkowej i wielkości popytu/podaży dla tej ceny również polega na rozwiązaniu układu dwóch równań z dwoma niewiadomymi.

Model ogólnej równowagi rynkowej

        W rzeczywistości gospodarczej sytuacja wygląda w ten sposób, iż dla danego dobra występuje zwykle wiele dóbr substytucyjnych i komplementarnych. Jesteśmy w stanie wyróżnić szereg dóbr, które są wzajemnie powiązane. Dlatego też, chcąc wyznaczyć ogólną równowagę rynkową należy w modelu uwzględnić wszystkie dobra jakie są produkowane, sprzedawane na rynku. Rezultatem będzie Walrasowski rodzaj modelu równowagi ogólnej, w którym popyt/podaż na dane dobro jest funkcją cen wszystkich dóbr w gospodarce.

W ogólnym przypadku dla rynku n - dóbr funkcje popytu i podaży można zapisać w następujący sposób:    Qdi=Qdi(P1,P2,…,Pn),     Qsi=Qsi(P1,P2,…,Pn)    (i=1,2,…,n).

Wówczas warunek ogólnej równowagi rynkowej będzie następujący:   Qdi=Qsi   (i=1,2,…,n).

Aby występował stan równowagi na rynku n - dóbr, na rynku każdego z tych dóbr wielkość popytu musi być równa wielkości podaży.

Istota ryzyka w przedsiębiorstwie.  Pojęcie ryzyka

Termin ryzyka jest znany od bardzo dawna, gdyż towarzyszy każdej działalności człowieka. Stanowi jedno z kluczowych kategorii na tle gospodarki światowej. Zagadnienie ma charakter złożony i wielopłaszczyznowy ze względu na szeroką skalę oddziaływania zarówno w dziedziny życia społecznego jak i ekonomicznego. W związku z tym, nie istnieje jedna, precyzyjna definicja.Jak wiadomo, każda decyzja pociąga za sobą pewne ryzyko związane z brakiem uzyskania w przyszłości oczekiwanych efektów. Mimo stawianych celów i dążeniom ku realizacji, nie istnieje możliwość przewidzenia na chwilę obecną osiągniętych wyników. Zatem występuje element niepewności. Wobec tego brak kompletnych informacji może przyczynić się do poniesienia strat przez dany podmiot, np. przedsiębiorstwo. Słowo „ryzyko” czerpie swój poczatek od starowłoskiego wyrazu „risicare”, czyli odważyć się. Wobec tego wiąże się z własnym wyborem a nie z przeznaczeniem. Można twierdzić, że kształtuje się przez horyzont czasowy.

Wybitny uczony A. Willet jako pierwszy utożsamia pojecie ryzyka z niepewnością wystapienia niechcianego zdarzenia, z którym występuje w ścisłym związku. Zauważa się, że wzrastający poziom prawdopodobieństwa nie odgrywa znaczącej roli na wielkość ryzyka.Następnie amerykański naukowiec F. H. Knight różnicuje dwa wyżej wymienione pojęcia. W swojej teorii podkreśla mierzalną postać ryzyka a zarazem niemierzalną niepewność określaną mianem sensu stricte. Znany ekonomista J.M. Keynes zakładał w przypadku ryzyka możliwość przewidzenia prawdopodobieństwa z jakim wystapi dane zdarzenie. Zatem oceniano poziom za pomocą formuły matematycznej. Dla przykładu, prawdopodobieństwo wyrzucenia określonej cyfry kostką sześcienną do gry z wartościami od 1 do 6 wynosi 1/6. Inaczej wygląda sytuacja dla niepewności, albowiem brak danych o przyszłych zdarzeń wyklucza opcję obliczenia prawdopodobieństwa wystąpienia.

W konsekwencji, nieznana jest cena kursu złotego czy baryłki ropy w perspektywie za kilka lat.Reasumując stwierdza się, że ryzyko to zespół czynników, działań bądź czynności, które przyczyniają się do szkody lub straty materialnej, finansowej danej jednostki [1-8]. Toteż następstwa są niepewne ze względu na występujący deficyt informacji. Jednakże znane jest prawdopodobieństwo wystąpienia poszczególnych zdarzeń. Ponadto, ukierunkowane jest na osiąganie zamierzonych celów. Szczególnie widoczne jest w gospodarce. W większości przypadków przyjmuje negatywny aspekt z powodu braku realizacji postawionego zadania a tym samym poniesienia strat. Taki rodzaj ryzyka określa się mianem czystego. Jednakże istnieje alternatywa w formie ubezpieczenia się, czyli obrony przed niekorzystnymi skutkami przeprowadzonego zdarzenia, np. transakcji finansowej.

Zaś w sytuacji przewidywania osiągnięcia zysku bądź innej korzyści, przyjmuje nazwę dynamicznego. Co więcej, dotyczy czynników subiektywnych oraz wewnętrznych. Rośnie wraz z upływem czasu. Różni się od niepewności, definiowanej jako stan o nieznanych zjawiskach, występujących w przyszłości[18]. Tak więc prawdopodobieństwo wystapienia ewentualnych faktów jest trudne do oszacowania. Za podstawę istnienia przyjmuje się uwarunkowania zewnętrzne. sytuacji gospodarczej danego rejonu przyczyni się do poprawy warunków bytowych społeczeństwa.

Rodzaje ryzyka i jego charakterystyka

Jak zostało wcześniej wskazane, termin ryzyka nie jest jednoznacznie skonkretyzowany. Wynika to z faktu złożonego charakteru. Niemniej, każda podjęta decyzja równoznaczna jest z wystąpieniem ryzyka, które rośnie w perspektywie czasu. Toteż odgrywa bardzo ważną rolę w gospodarce, szczególnie w zakresie inwestycji zarówno krótko- jak i długoterminowych. Zatem wymagana jest szczególna ostrożność podmiotów zarzadzających przedsiębiorstwami. Źle dokonany wybór w dostawcy towarów bądź ilości wyprodukowanych dóbr może kosztować jednostkę gospodarczą bardzo dużo środków pieniężnych [4-9].

Jak wskazuje Ustawa o przedsiębiorstwach państwowych mianem tym określa się samodzielnego, samorządnego i samofinansującego się przedsiębiorcę, który ma osobowość prawną. Mogą powstawać jako przedsiębiorstwa istniejące na zasadach ogólnych bądź też użyteczności publicznej. Podejmowanie decyzji oraz realizacja działań jednostki gospodarczej w pełnym zakresie, niezbędnym do prawidłowego funkcjonowania i generowania zysków należy do organów przedsiębiorstwa. Jednakże powinny być zgodne z przepisami prawa. Ewentualną ingerencję organów państwowych w działalność przedsiębiorstwa określają przepisy ustawy.

Jednym z kryteriów podziału ryzyka jest działalność przedsiębiorstwa. Z tego tytułu wyróżnia się m.in. ryzyko:

1) stałe

2) zmienne

Ryzyko stałe związane jest z pełnym systemem gospodarczym. Zatem uwzglednia takie czynniki jak poziom inflacji, bezrobocia.Z kolei ryzyko zmienne wiąże się z konkretnym przedsiębiorstwem. Wobec tego zakłada się pogorszenie sytuacji finansowej jednostki na skutek czego może pojawić się seria strajków bądź sytuacja likwidacyjna bądź upadłościowa. Podstawowy podział ryzyka ze względu na uczestnictwo przedsiębiorstwa w rynku kapitałowym przedstawia poniższy schemat:

Jak wskazuje powyższy układ graficzny, wyróżnia się pięć głównych grup ryzyka występujących w przedsiębiorstwie.

Model matematyczny ekonomii jest układem założeń, definicji  i zależności przyczynowo – skutkowych opisujących jego strukturę. Zależności te opisywane są za pomocą pewnych wielkości, funkcji, równań czy nierówności, zawierających dane, które są ustalone, oraz dane, które należy określić – nazywamy je zmiennymi. Przykładami funkcji, najbardziej charakterystycznych dla modeli ekonomicznych, są: funkcja użyteczności, produkcji, kosztów, popytu, podaży itp.

Etapy konstrukcji modelu:

Określenie zmiennych objaśnianych i objaśniających, parametrów oraz wielkości ustalonych, które będą rozważane w modelu. Zmiennymi modelu ekonomicznego są często: praca, zysk, dochód itp. Parametry modelu mogą być w danym momencie ustalone , jednak w badaniach porównawczych można rozważać zmiany rozwiązania spowodowane zmianami parametrów.

Formułowanie warunków prawidłowego funkcjonowania modelu. Sformułowanie warunków wymaga określenia podstawowych założeń, zakresu zmienności zmiennych i parametrów. Następnie należy ustalić związki zachodzące z definicji. Ustalane są również zależności funkcyjne, czyli zależności przyjęte w modelu ex ante oraz warunki dotyczące równowagi bądź nierównowagi modelu.

Sprowadzenie warunków modelu do funkcji względem jednej lub większej liczby zmiennych.

Jednym z klasycznych warunków modelowania ekonometrycznego, zarówno w przypadku danych przekrojowych, jak i postaci szeregów czasowych, jest kompletność danych statystycznych. Występowanie luk wprawdzie utrudnia, ale nie uniemożliwia modelowania i prognozowania zmiennych ekonomicznych. Do prognozowania brakujących danych w szeregach czasowych mogą być wykorzystywane różne metody. Stosowanie poszczególnych metod wymaga spełnienia określonych założeń. Przykładowo w modelach adaptacyjnych szeregi czasowe powinny zawierać pewną liczbę obserwacji początkowych, które są niezbędne do wyznaczania wartości startowych.

Z kolei inne metody numeryczne mogą być stosowane wyłącznie do obliczania prognoz interpolacyjnych. Ważnym czynnikiem wpływającym na wybór metody jest występowanie  wahań sezonowych. Modele klasycznego szeregu czasowego, w których sezonowość opisywana jest ze pomocą zmiennych zerojedynkowych, mogą służyć do modelowania i prognozowania w warunkach niepełnej informacji jedynie wówczas, gdy występują niesystematyczne luki w danych. Natomiast modele szeregu czasowego z wielomianem trygonometrycznym oraz modele hierarchiczne mogą być wykorzystywane zarówno w przypadku luk systematycznych, jak i niesystematycznych. Istotnym ograniczeniem związanym ze stosowaniem metod numerycznych jest to, że mogą one być stosowane bezpośrednio w szeregach czasowych niezawierających wahań sezonowych lub takich, z których została wyeliminowana sezonowość.

Procedura prognozowania przebiega następująco: W pierwszej kolejności eliminuje się sezonowość, a następnie oblicza prognozy tylko interpolacyjne lub interpolacyjne i ekstrapolacyjne. Tak otrzymane prognozy mnoży się przez wskaźniki sezonowości. Tego rodzaju procedura zostanie wykorzystana w pracy w prognozowaniu skupu mleka. W przypadku niektórych metod numerycznych luki nie mogą występować na początku oraz na końcu szeregu [1-7].

6  PRZEGLĄD METOD NUMERYCZNYCH

6. 1 Metoda odcinkowa

Metoda odcinkowa jest wykorzystywana do interpolacji brakujących danych statystycznych. Jest stosowana szczególnie wówczas, gdy  liczba znanych wyrazów szeregu czasowego jest mała, a ich przebieg w czasie cechuje niewielka regularność, co uniemożliwia dopasowanie odpowiedniej funkcji trendu. Istota tej metody polega na łączeniu znanych, sąsiadujących ze sobą wyrazów szeregu za pomocą odcinków prostej.


Wartości nieznane elementów szeregu, które leżą między użytymi w procedurze wyrazami szeregu, określa się według wzoru:

gdzie  – są współrzędne dwóch sąsiednich punktów, na podstawie których określa się równanie kolejnego odcinka.

Procedura ta może służyć wyłącznie do celów interpolacji, czyli szacowania brakujących wyrazów szeregu czasowego leżących między wyrazami znanymi. Jej wadą jest brak możliwości określenia a priori błędów dokonanych szacunków”.

6. 2 Metoda łuków

Metoda łuków jest modyfikacją metody odcinkowej. Istota tej metody polega na łączeniu trzech znanych, sąsiadujących ze sobą, wyrazów szeregu za pomocą paraboli. Z kolei w metodzie łuków II interpolowaną wartość  w okresie  wyznacza się na podstawie paraboli przechodzącej przez trzy punkty, z tą różnicą, że dwa z nich – i  leżą na lewo od interpolowanego punktu, a  na prawo.Obie procedury mogą służyć wyłącznie do celów interpolacji. Nie można ich stosować do ekstrapolacji. Podobnie jak w przypadku metody odcinkowej, metody te nie dają możliwości określenia a priori wielkości błędu interpolacji.

6. 3 Metoda wielomianowa Lagrange’a

Metoda ta jest oparta na twierdzeniu, że jakkolwiek jest dana funkcja f (x) i jakkolwiek są wybrane węzły interpolacji , istnieje dokładnie jeden wielomian interpolacyjny  stopnia n, który w punktach  przyjmuje te same wartości, co dana funkcja f (x). Istotą tej metody jest wyznaczenie przybliżonych wartości funkcji interpolacyjnej f (t) w punktach, które nie są węzłami oraz oszacowanie błędów tych przybliżonych wartości. Funkcja ta w węzłach interpolacji przyjmuje takie same wartości co funkcja y = f (t). Wzór interpolacyjny Lagrange'a. Jest to metoda, która zawsze pozwala nam na znalezienie jednoznacznie określonej funkcji interpolującej będącej wielomianem. Mając dane n+1 węzłów wraz z ich wartościami, szukamy wielomianu Wn(x) stopnia co najwyżej n, który przyjmuje zadane wartości dla zadanych węzłów. Oznaczając przez:

7  CHARAKTERYSTYKA ZMIENNEJ ORAZ ZAKRES BADAŃ

Kształtowanie się wielkości przykładowo skupu mleka w zostało przedstawione na rys. 1. Wynika z niego, że zmienna charakteryzuje się występowaniem silnych wahań sezonowych [14-17].

W celu określenia natężenia tych wahań obliczono wskaźniki sezonowe. Oceny tych wskaźników przedstawiono na rys. 2.

Maksymalnymi ocenami wskaźników charakteryzują się miesiące letnie, a minimalnymi zimowe. Różnica pomiędzy okresami o najwyższym i najniższym natężaniu skupu mleka wynosi 29 punktów procentowych. Jak wspomniano wyżej, metody numeryczne nie mogą być wykorzystane bezpośrednio do budowy prognoz z wahaniami sezonowymi.

Warianty te otrzymano poprzez „wymazanie” części danych z oryginalnego szeregu. Analiza dokładności prognoz będzie polegała na wyznaczeniu średnich względnych różnic między prognozami interpolacyjnymi  i ekstrapolacyjnymi a realizacjami badanej zmiennej. Dla prognoz ekstrapolacyjnych została przeprowadzona analiza ex-post ich dokładności [4-7].

Z przeprowadzonych w pracy rozważań wynika, że wykorzystanie wybranych metod numerycznych  w prognozowaniu brakujących danych okazało się efektywne. Należy jednak zauważyć, że inne metody powinny być wykorzystane w prognozowaniu interpolacyjnym, a inne w prognozowaniu ekstrapolacyjnym. Prognozy interpolacyjne o najniższych błędach otrzymano metodą odcinkową. W przypadku prognoz ekstrapolacyjnych była to metoda Lagrange’a z trzema węzłami rozmieszczonymi proporcjonalnie, a następnie ta sama metoda dla trzech węzłów rozmieszczonych zgodnie z regułą Czebyszewa. W toku badań stwierdzono, że liczba oraz rozmieszczanie luk wpływają na dokładność prognoz zarówno interpolacyjnych, jak i ekstrapolacyjnych. Modele ekonomii matematycznej, w przeciwieństwie do modeli ekonometrycznych,  zazwyczaj charakter modeli teoretycznych, gdyż nie odnoszą się do konkretnego podmiotu ekonomicznego  czy teżkonkretnej[1-17] gospodarki.

W modelach ekonometrycznych, korzystając ze zbiorów danych statystycznych dotyczących funkcjonowania określonego podmiotu gospodarczego lub gospodarki, szacuje się wartości parametrów równań opisujących funkcjonowanie owego podmiotu gospodarczego lub gospodarki.Model matematyczny ekonomii jest układem założeń, definicji  i zależności przyczynowo – skutkowych opisujących jego strukturę. Zależności te opisywane są za pomocą pewnych wielkości, funkcji, równań czy nierówności, zawierających dane, które są ustalone, oraz dane, które należy określić – nazywamy je zmiennymi.

Przykładami funkcji, najbardziej charakterystycznych dla modeli ekonomicznych, są: funkcja użyteczności, produkcji, kosztów, popytu, podaży itp.

Etapy konstrukcji modelu:

  1. Określenie zmiennych objaśnianych i objaśniających, parametrów oraz wielkości ustalonych, które będą rozważane w modelu. Zmiennymi modelu ekonomicznego są często: praca, zysk, dochód itp. Parametry modelu mogą być w danym momencie ustalone, jednak w badaniach porównawczych można rozważać zmiany rozwiązania spowodowane zmianami parametrów.
  2. Formułowanie warunków prawidłowego funkcjonowania modelu. Sformułowanie warunków wymaga określenia podstawowych założeń, zakresu zmienności zmiennych i parametrów. Następnie należy ustalić związki zachodzące z definicji. Ustalane są również zależności funkcyjne, czyli zależności przyjęte w modelu ex ante oraz warunki dotyczące równowagi bądź nierównowagi  modelu.
  3. Sprowadzenie warunków modelu do funkcji względem jednej lub większej liczby zmiennych.

Ekonomia matematyczna − kierunek w ekonomii zajmujący się badaniem szeroko pojętych zjawisk gospodarczych przy użyciu zaawansowanych technik matematycznych, takich jak analiza szeregów czasowych czy programowanie dynamiczne. Współczesna ekonomia głównonurtowa w coraz większej mierze odwołuje się do tych metod, niemniej podział na matematyczny i instytucjonalny nurt w ekonomii jest wciąż widoczny. Jednymi z podstawowych zagadnień ekonomii matematycznej są modele wzrostu gospodarczego oraz poszukiwań pracy. Gałęzią wiedzy pokrewną ekonomii matematycznej jest ekonometria, jednak drogi obu nauk silnie się rozeszły po opublikowaniu krytyki Lucasa.

Wzrost gospodarczy – zwiększenie się rocznej produkcji dóbr i usług w kraju. Jeśli w kolejnym roku w całej gospodarce uda się sprzedać więcej towarów i usług niż w roku poprzednim – mamy do czynienia ze wzrostem gospodarczym. Kiedy jesteśmy w stanie więcej zarobić, źródłem wzrostu jest nasza praca. Ale jeśli w tym samym czasie, gdy wzrosły nasze zarobki, o tyle samo podniosły się ceny towarów, które kupujemy, mieliśmy do czynienia tylko ze wzrostem nominalnym. Nie możemy bowiem kupić więcej niż poprzednio. Dlatego cieszyć się można tylko z wzrostu realnego, czyli po uwzględnieniu inflacji. Wzrost gospodarczy odnosi się tylko do zmian ilościowych, przy założeniu, że podstawowe wielkości makroekonomiczne charakteryzują się długofalowym trendem.

Mierniki wzrostu gospodarczego:

Produkt krajowy brutto – całkowita wartość dóbr i usług wytworzonych przez społeczeństwo w ciągu danego roku na terenie danego kraju,

  1. Produkt narodowy brutto – całkowita wartość wyrobów i usług wytworzonych przez obywateli danego kraju w ciągu jednego roku, PNB uwzględnia również dochody krajowych firm uzyskane za granicą, nie uwzględnia dochodów obcych firm działających w kraju,
  1. Stopa wzrostu dochodu narodowego. Oznacza ona stosunek przyrostu dochodu narodowego w badanym okresie do wielkości dochodu narodowego w okresie bazowym.
  2. Wielkość produktu PKB przypadająca na jednego mieszkańca.

Bariery wzrostu gospodarczego:

1. Bariery polityczno-ekonomiczne:

        a) bariera ustrojowo-ideologiczna,

        b) bariera braku stabilizacji wewnętrznych stosunków politycznych,

        c) bariera politycznego podziału świata,

        d) bariera instytucjonalno-organizacyjna.

2. Bariery społeczno-ekonomiczne:

        a) bariera demograficzna

        b) bariera konsumpcji

        c) bariera infrastruktury społecznej

        d) bariera żywnościowa

Model matematyczny

Model matematyczny opisujący dane zjawisko zachodzące w ekonomii może mieć postać między innymi funkcji, równania, układu równań. Proste modele ekonomiści łączą w złożone systemy, dzięki którym jesteśmy w stanie odpowiedzieć na szereg istotnych pytań. Dzięki tak utworzonym modelom opisującym zjawiska zachodzące w gospodarce jesteśmy również w stanie analizować skutek podejmowanych decyzji nim zostaną one jeszcze podjęte [14-17].

Częściowa równowaga rynkowa - model liniowy rynku jednego dobra

W sytuacji gdy rozważamy model izolowanego rynku jednego dobra, tzw. model częściowej równowagi, wówczas równowagą rynkową będzie taka sytuacja na rynku, w której - przy danej cenie wielkość popytu na określone dobro jest równa wielkości podaży tego dobra. Ilustracją graficzną stanu równowagi rynkowej jest punkt przecięcia się krzywych popytu i podaży, tzw. punkt równowagi rynkowej.

Rozważając model jednego dobra, w modelu wystarczy uwzględnić trzy zmienne:

- wielkość popytu na dane dobro (Qd – Quantity Demand)

- wielkość podaży dobra (Qs – Quantity Supply)

- cenę dobra (p)

Aby model znajdował się w stanie równowagi  musi być: Qd=Qs, gdzie:

Qd = a - b*p (a, b > 0) wzór ogólny na funkcję popytu

Qs = -c + d*p (c, d > 0) wzór ogólny na funkcję podaży

Częściowa równowaga rynkowa - model nieliniowy rynku jednego dobra

Aby model rynku jednego dobra, w którym funkcje popytu i/lub podaży nie są funkcjami liniowymi, znajdował się w równowadze, musi być spełniony taki sam warunek równowagi rynkowej jak w przypadku modelu liniowego. Mianowicie wielkość popytu musi być równa wielkości podaży W modelu nieliniowym rynku jednego dobra należy uwzględnić trzy zmienne takie same jak w modelu liniowym: p, Qd, Qs.

Model ogólnej równowagi rynkowej

W rzeczywistości gospodarczej sytuacja wygląda w ten sposób, iż dla danego dobra występuje zwykle wiele dóbr substytucyjnych i komplementarnych. Jesteśmy w stanie wyróżnić szereg dóbr, które są wzajemnie powiązane. Dlatego też, chcąc wyznaczyć ogólną równowagę rynkową należy w modelu uwzględnić wszystkie dobra jakie są produkowane, sprzedawane na rynku. Rezultatem będzie Walrasowski rodzaj modelu równowagi ogólnej, w którym popyt/podaż na dane dobro jest funkcją cen wszystkich dóbr w gospodarce [3-7].

W ogólnym przypadku dla rynku n - dóbr funkcje popytu i podaży można zapisać w następujący sposób:

Qdi=Qdi(P1, P2 ,...,Pn)

Qsi=Qsi(P1, P2 ,...,Pn) , i=1,2...,n

Wówczas warunek ogólnej równowagi rynkowej będzie następujący:

Qdi=Qsi

Słowniczek:

Popyt – ilość towarów i usług, którą klienci są gotowi kupić przy określonym poziomie ceny w danym miejscu i czasie.

Podaż -  ilość towarów i usług oferowana do sprzedaży przy określonym poziomie ceny w danym miejscu i czasie.

Gospodarka rynkowa – system ekonomiczny, w którym decyzje dotyczące produkcji konsumpcji są podejmowane przez producentów i konsumentów na poziomie działania mechanizmu rynkowego.

Mechanizm rynkowy – ogół wzajemnych zależności między podażą, popytem a ceną towarów i usług.

Prawo popytu – popyt na dany towar lub usługę maleje wraz ze wzrostem jego ceny (pod warunkiem, że inne czynniki pozostają niezmienne).

Prawo podaży – podaż danego towaru lub usługi zwiększa się wraz ze wzrostem ceny (pod warunkiem, że inne czynniki pozostają niezmienne).

Cena – wartość rynkowa towaru lub usługi wyrażona w jednostce pieniężnej.

Krzywa podaży – jest to krzywa przedstawiająca zależność pomiędzy ceną a wielkością podaży na dany towar/usługę.

Krzywa popytu - jest to krzywa przedstawiająca zależność pomiędzy ceną a wielkością popytu na dany  towar/usługę.

Punkt równowagi rynkowej – jest to punkt przecięcia się krzywej popytu i podaży, wyznacza cenę równowagi rynkowej, przy której popyt na dany towar/usługę równoważy podaż [1-6].

Ekonomia matematyczna stanowi tę część ekonomii, która zajmuje się modelowaniem procesów zachodzących w gospodarce za pomocą modeli matematycznych. W modelach ekonomii matematycznej ekonomiści na podstawie obserwacji otaczającej rzeczywistości, formułują założenia, opisujące procesy występujące w gospodarce, za pomocą pewnych matematycznych zależności tożsamościowych lub funkcyjnych. Następnie modele rozwiązują i uzyskanemu rozwiązaniu nadają interpretację ekonomiczną.

Według E. Pianka „Opisując zjawisko ekonomiczne w języku matematycznym, tworzymy jego model matematyczny w postaci układu założeń matematycznych o powiązaniach między charakteryzującymi to zjawisko zmiennymi ekonomicznymi. Gdyby obserwacja rzeczywistości ekonomicznej dawała nam tylko jeden możliwy do przyjęcia układ założeń, wtedy w zakresie zjawisk kwantyfikowalnych ekonomia matematyczna byłaby jedyną teorią ekonomiczną, pozwalającą – jak każda dobra teoria – na przewidywanie zachowania podmiotów gospodarczych i zmienność warunków, w jakich działają, nie dają podstawy do przyjęcia jednego układu założeń, wskutek czego ekonomia matematyczna dzieli się na wiele różnych modeli, niemających wartości uniwersalnej”. Innymi słowy, wnioski, które płyną z poprawnie skonstruowanego modelu ekonomii matematycznej, pozostają prawdziwe tylko na gruncie założeń przyjmowanych w modelu.

Jeśli w rzeczywistości gospodarczej założenia przyjmowane w modelu nie są spełnione lub są spełnione jedynie częściowo, to wnioski, które wynikają z modelu matematycznego, nie muszą być adekwatne do opisywanej rzeczywistości.Modele ekonomii matematycznej, w przeciwieństwie do modeli ekonometrycznych, zazwyczaj mają charakter modeli teoretycznych, gdyż nie odnoszą się do konkretnego przedmiotu ekonomicznego czy też konkretnej gospodarki. Natomiast w modelach ekonometrycznych korzystając ze zbiorów danych statystycznych dotyczących funkcjonowania określonego podmiotu gospodarczego lub gospodarki, szacuje się wartości parametrów równań opisujących funkcjonowanie owego podmiotu lub gospodarki. Dlatego też „ekonometria jest nauką pomocniczą, umożliwiającą weryfikację hipotez i założeń przyjmowanych w ekonomii matematycznej.

Ekonomiści matematyczni, bardziej dbający o czystość teorii niż o jej przystawanie do rzeczywistości, nie w pełni wykorzystują możliwości ekonometrii, dysponującej arsenałem metod pozwalających na weryfikację przyjmowanych często ad hoc założeń. Ekonometrycy zaś nie potrafią wyjść poza modele działania konkretnej gospodarki w konkretnym czasie. Dlatego żywot modeli ekonometrycznych jest na ogół krótki, co powoduje, że nie tworzą one zazwyczaj teorii ekonomicznych. Płynie stąd prosty wniosek: ekonomia matematyczna nie może istnieć bez ekonometrii, a ekonometria nie jest w stanie właściwie rozwijać się bez ekonomii matematycznej” .Modele ekonomii matematycznej można podzielić na modele statyczne i dynamiczne bądź też na modele mikroekonomiczne i makroekonomiczne. Modele statyczne opisują funkcjonowanie pewnego przedmiotu ekonomicznego lub gospodarki w pewnym momencie.

Natomiast w modelach dynamicznych analizuje się zachowanie podmiotów ekonomicznych albo gospodarki w pewnym przedziale czasu. Modele mikroekonomiczne są zaś opisem działania pewnego podmiotu mikroekonomicznego  bądź też rynku pewnego dobra lub usługi. natomiast modele makroekonomiczne próbuje opisać funkcjonowanie gospodarki jako całości.

Teoria szczególna:

Funkcja użyteczności jest sposobem przyporządkowywania liczb każdemu koszykowi konsumpcji, w taki sposób iż bardziej preferowane koszyki otrzymują wyższe numery. Oznacza to, że koszyk A jest preferowany bardziej niż koszyk B wtedy i tylko wtedy gdy koszyk A ma większą użyteczność od koszyka B.

Gdy zwracamy uwagę tylko na określenie kolejności i hierarchii owych koszyków to taki rodzaj użyteczności w literaturze określany jest mianem użyteczności porządkowej, gdyż kładzie on nacisk na porządkowanie konsumowanych koszyków dóbr. Geometrycznym obrazem takich funkcji użyteczności są np. krzywe obojętności. Koszyki leżące na tej samej krzywej obojętności muszą mieć tę samą użyteczność.W opracowaniach spotyka się również pojęcie użyteczności kardynalnej, która w przeciwieństwie do użyteczności porządkowej określałaby różnicę w preferowaniu jednego koszyka względem drugiego. Jednakże problem w wyborze odpowiedniego miernika i brak potrzeby dokładnego określania owej różnicy, przesądza o tym, iż ta teoria nie jest obiektem większego zainteresowania przy opisie procesu dokonywania wyboru.

Krańcowa stopa substytucji – stosunek wymiany, przy którym konsument skłonny jest dokonać wymiany dobra X na dobro Y i na odwrót. Zależy od krzywych użyteczności osiąganych z konsumpcji danych dóbr i stanu posiadania.Innymi słowy krańcowa stopa substytucji jest to stosunek przyrostu konsumpcji jednego dobra do ubytku konsumpcji innego– taki, że konsument nie zmienia osiąganej użyteczności i przy założeniu, że jego krzywa obojętności pozostaje niezmieniona.Ponieważ zakładamy, że użyteczność osiągana z konsumpcji kolejnych porcji danego dobra jest malejąca, krańcowa stopa substytucji jest zawsze malejąca.

Formalna definicja:

Dla ustalonego poziomu użyteczności u_0 i funkcji użyteczności u(x,y) krzywa obojętności zdefiniowana jest jako zbiór tych punktów (x,y), które spełniają warunek u(x,y) = u_0.

Zakładając, że funkcja użyteczności u(x,y) jest różniczkowalna otrzymujemy:

 \frac{\partial u}{\partial x} dx + \frac{\partial u}{\partial y} dy = 0

skąd:

 \left . \frac{dy}{dx} \right |_{u=u_0} = - \frac{\partial u / \partial x}{\partial u / \partial y} = - Px / Py

Elastyczność substytucji pokazuje, o ile procent powinna zwiększyć się ilość j - tego towaru przy zmniejszeniu o jednostkę i - tego towaru, aby użyteczność koszyka towarów nie zmieniła się [1-7].

Warunki Kuhna-Tuckera są warunkami koniecznymi na to, by dany punkt mógł być punktem optymalnym badanej funkcji f(x) w obszarze ograniczonym zależnościami gi(x). Warunki te są równoważne warunkom istnienia punktu siodłowego funkcji Lagrange'a  zbudowanej na funkcji f(x) i ograniczeniach gi(x).

Zadanie formułowane jest następująco:

Poszukujemy maximum funkcji nieliniowej f(x) w obszarze n-wymiarowym określonym przez m ograniczeń:

gi(x) ≤ 0          dla 0< i ≤ u        ,

gi(x) ≥ 0         dla u< i ≤ v,

gi(x) = 0         dla v< i ≤ m        

przy ograniczeniach zmiennych niezależnych

xj ≥ 0                 dla  0< j ≤ s  ,

xj ≤ 0                 dla  s< j ≤ t

xj dowolnego znaku         dla  t< j ≤ n .

Formułujemy funkcję Lagrange'a  postaci:

L (x,l) = f(x) - ∑ li gi(x)

przy czym mnożniki Lagrange'a  li  powinny spełniać warunki (związane ze znakiem ograniczeń):

li ≥ 0                 dla  0< i ≤ u ,

li ≤ 0                 dla  u< i ≤ v ,

li dowolnego znaku         dla  v< i ≤ m, a także wówczas, gdy badany punkt leży na ograniczeniu, czyli gdy zachodzi w tym punkcie gi(x) = 0  dla dowolnego i.

Punktów spełniających te warunki może być więcej niż jeden - zwykle jest też ich kilka. Punkty leżące wewnątrz obszaru ograniczeń powinny dodatkowo spełniać warunek regularności, punkty leżące na brzegu nie muszą go spełniać. Przy ograniczeniach liniowych warunek regularności jest zawsze spełniony. Przy ograniczeniach nieliniowych jest on spełniony, gdy rząd macierzy G jest równy rzędowi macierzy Gf:

                        rząd G = rząd Gf .

Funkcja popytu wyraża zależność między ceną towaru a popytem na ten towar uwzględniając dochód konsumenta. Funkcja popytu  pokazuje jak popyt zależy od wektora cen oraz dochodu konsumenta.

 Funkcją popytu konsumenta nazywamy odwzorowanie , które każdej parze (p,I)>0 przyporządkowuje odpowiadające jej rozwiązanie  zadania maksymalizacji użyteczności konsumpcji.

 Popyt na i-ty towar zależy nie tylko od ceny tego towaru i dochodu, ale także od cen wszystkich pozostałych towarów. Funkcja popytu opisuje jak wraz ze zmianą cen i dochodu zmienia się popyt konsumenta na poszczególne towary, jeżeli maksymalizuje on użyteczność nabywanego koszyka.

Rozwiązanie zadania :        

Obliczamy pochodne cząstkowe:

a) > 0                 > 0

Obie pochodne są większe od zera, a zatem jest to funkcja rosnąca. Obliczamy drugie pochodne proste:

                

Nie są mniejsze od zera, a zatem prawo Gossena nie jest spełnione. Krańcowe stopy substytucji:

                

Elastyczności substytucji:

                

b)

Obliczamy pochodne cząstkowe:

> 0                > 0

Obie pochodne są większe od zera, a zatem jest to funkcja rosnąca. Obliczamy drugie pochodne proste:

                         > 0

Nie są mniejsze od zera, a zatem prawo Gossena nie jest spełnione. Krańcowe stopy substytucji:

                

Elastyczności substytucji:

                

Zadanie  

Dla funkcji użyteczności u(x1,x2) =  wykonaj następujące polecenia:

a) zapisz zadanie maksymalizacji użyteczności konsumenta;

b) zapisz warunki Kuhna - Tuckera wyznaczające rozwiązanie oraz zinterpretuj te warunki;

c) wyznacz rozwiązanie zadania i zapisz funkcję popytu konsumenta

d) wyznacz krańcową stopę substytucji towaru pierwszego przez drugi, s12;

e) oblicz elastyczności dochodowe , elastyczności cenowe proste  i elastyczności cenowe krzyżowe , zinterpretuj je oraz ustal, jakiego rodzaju dobrami są towary 1 i 2;

f) sprawdź stopień jednorodności funkcji popytu oraz zinterpretuj wynik.


Rozwiązanie zadania 2:

a) Zadanie maksymalizacji użyteczności ma postać:

pod warunkiem, że:

 

Pochodne cząstkowe funkcji użyteczności:

        

Warunki Kuhna - Tuckera mają postać:

Aby otrzymać rozwiązanie, dzielimy dwa pierwsze równania przez siebie stronami. Otrzymujemy:

Upraszczamy do  

czyli

a zatem

Podstawiamy to do trzeciego równania i otrzymujemy:        

Rozwiązaniem tego równania jest:         

Rozwiązaniem dla x2 jest więc:        

Krańcowa stopa substytucji dla tej funkcji użyteczności wynosi:        

Podstawiamy otrzymany wcześniej punkt optymalny i otrzymujemy:

A zatem krańcowa stopa substytucji w punkcie optymalnym jest równa stosunkowi cen.

Funkcja popytu:        

Pochodne cząstkowe funkcji popytu względem cen i względem dochodu wynoszą:

                        

                        

Wobec tego elastyczności cenowe proste wynoszą:

        

Oba towary są dobrami normalnymi. Elastyczności cenowe krzyżowe:

                

Towary 1 i 2 nie są ani substytucyjne ani komplementarne. Elastyczności dochodowe:

Popyt – ilość towarów i usług, którą klienci są gotowi kupić przy określonym poziomie ceny w danym miejscu i czasie.

Podaż -  ilość towarów i usług oferowana do sprzedaży przy określonym poziomie ceny w danym miejscu i czasie.

Gospodarka rynkowa – system ekonomiczny, w którym decyzje dotyczące produkcji konsumpcji są podejmowane przez producentów i konsumentów na poziomie działania mechanizmu rynkowego.

Mechanizm rynkowy – ogół wzajemnych zależności między podażą, popytem a ceną towarów i usług.

Prawo popytu – popyt na dany towar lub usługę maleje wraz ze wzrostem jego ceny (pod warunkiem, że inne czynniki pozostają niezmienne).

Prawo podaży – podaż danego towaru lub usługi zwiększa się wraz ze wzrostem ceny (pod warunkiem, że inne czynniki pozostają niezmienne).

Cena – wartość rynkowa towaru lub usługi wyrażona w jednostce pieniężnej.

Krzywa podaży – jest to krzywa przedstawiająca zależność pomiędzy ceną a wielkością podaży na dany towar/usługę.

Krzywa popytu - jest to krzywa przedstawiająca zależność pomiędzy ceną a wielkością popytu na dany  towar/usługę.

Punkt równowagi rynkowej – jest to punkt przecięcia się krzywej popytu i podaży, wyznacza cenę równowagi rynkowej, przy której popyt na dany towar/usługę równoważy podaż [1-6].

Ekonomia matematyczna stanowi tę część ekonomii, która zajmuje się modelowaniem procesów zachodzących w gospodarce za pomocą modeli matematycznych. W modelach ekonomii matematycznej ekonomiści na podstawie obserwacji otaczającej rzeczywistości, formułują założenia, opisujące procesy występujące w gospodarce, za pomocą pewnych matematycznych zależności tożsamościowych lub funkcyjnych. Następnie modele rozwiązują i uzyskanemu rozwiązaniu nadają interpretację ekonomiczną. Według E. Pianka „Opisując zjawisko ekonomiczne w języku matematycznym, tworzymy jego model matematyczny w postaci układu założeń matematycznych o powiązaniach między charakteryzującymi to zjawisko zmiennymi ekonomicznymi. Gdyby obserwacja rzeczywistości ekonomicznej dawała nam tylko jeden możliwy do przyjęcia układ założeń, wtedy w zakresie zjawisk kwantyfikowalnych ekonomia matematyczna byłaby jedyną teorią ekonomiczną, pozwalającą – jak każda dobra teoria – na przewidywanie zachowania podmiotów gospodarczych i zmienność warunków, w jakich działają, nie dają podstawy do przyjęcia jednego układu założeń, wskutek czego ekonomia matematyczna dzieli się na wiele różnych modeli, niemających wartości uniwersalnej”.

Innymi słowy, wnioski, które płyną z poprawnie skonstruowanego modelu ekonomii matematycznej, pozostają prawdziwe tylko na gruncie założeń przyjmowanych w modelu.

Jeśli w rzeczywistości gospodarczej założenia przyjmowane w modelu nie są spełnione lub są spełnione jedynie częściowo, to wnioski, które wynikają z modelu matematycznego, nie muszą być adekwatne do opisywanej rzeczywistości.Modele ekonomii matematycznej, w przeciwieństwie do modeli ekonometrycznych, zazwyczaj mają charakter modeli teoretycznych, gdyż nie odnoszą się do konkretnego przedmiotu ekonomicznego czy też konkretnej gospodarki. Natomiast w modelach ekonometrycznych korzystając ze zbiorów danych statystycznych dotyczących funkcjonowania określonego podmiotu gospodarczego lub gospodarki, szacuje się wartości parametrów równań opisujących funkcjonowanie owego podmiotu lub gospodarki. Dlatego też „ekonometria jest nauką pomocniczą, umożliwiającą weryfikację hipotez i założeń przyjmowanych w ekonomii matematycznej . Ekonomiści matematyczni, bardziej dbający o czystość teorii niż o jej przystawanie do rzeczywistości, nie w pełni wykorzystują możliwości ekonometrii, dysponującej arsenałem metod pozwalających na weryfikację przyjmowanych często ad hoc założeń. Ekonometrycy zaś nie potrafią wyjść poza modele działania konkretnej gospodarki w konkretnym czasie.

Dlatego żywot modeli ekonometrycznych jest na ogół krótki, co powoduje, że nie tworzą one zazwyczaj teorii ekonomicznych. Płynie stąd prosty wniosek: ekonomia matematyczna nie może istnieć bez ekonometrii, a ekonometria nie jest w stanie właściwie rozwijać się bez ekonomii matematycznej” .Modele ekonomii matematycznej można podzielić na modele statyczne i dynamiczne bądź też na modele mikroekonomiczne i makroekonomiczne. Modele statyczne opisują funkcjonowanie pewnego przedmiotu ekonomicznego lub gospodarki w pewnym momencie.

Natomiast w modelach dynamicznych analizuje się zachowanie podmiotów ekonomicznych albo gospodarki w pewnym przedziale czasu. Modele mikroekonomiczne są zaś opisem działania pewnego podmiotu mikroekonomicznego  bądź też rynku pewnego dobra lub usługi. natomiast modele makroekonomiczne próbuje opisać funkcjonowanie gospodarki jako całości.

Teoria szczególna:

Funkcja użyteczności jest sposobem przyporządkowywania liczb każdemu koszykowi konsumpcji, w taki sposób iż bardziej preferowane koszyki otrzymują wyższe numery. Oznacza to, że koszyk A jest preferowany bardziej niż koszyk B wtedy i tylko wtedy gdy koszyk A ma większą użyteczność od koszyka B.

Gdy zwracamy uwagę tylko na określenie kolejności i hierarchii owych koszyków to taki rodzaj użyteczności w literaturze określany jest mianem użyteczności porządkowej, gdyż kładzie on nacisk na porządkowanie konsumowanych koszyków dóbr. Geometrycznym obrazem takich funkcji użyteczności są np. krzywe obojętności. Koszyki leżące na tej samej krzywej obojętności muszą mieć tę samą użyteczność.W opracowaniach spotyka się również pojęcie użyteczności kardynalnej, która w przeciwieństwie do użyteczności porządkowej określałaby różnicę w preferowaniu jednego koszyka względem drugiego. Jednakże problem w wyborze odpowiedniego miernika i brak potrzeby dokładnego określania owej różnicy, przesądza o tym, iż ta teoria nie jest obiektem większego zainteresowania przy opisie procesu dokonywania wyboru.

Krańcowa stopa substytucji – stosunek wymiany, przy którym konsument skłonny jest dokonać wymiany dobra X na dobro Y i na odwrót. Zależy od krzywych użyteczności osiąganych z konsumpcji danych dóbr i stanu posiadania.Innymi słowy krańcowa stopa substytucji jest to stosunek przyrostu konsumpcji jednego dobra do ubytku konsumpcji innego– taki, że konsument nie zmienia osiąganej użyteczności i przy założeniu, że jego krzywa obojętności pozostaje niezmieniona.Ponieważ zakładamy, że użyteczność osiągana z konsumpcji kolejnych porcji danego dobra jest malejąca, krańcowa stopa substytucji jest zawsze malejąca.

Formalna definicja:

Dla ustalonego poziomu użyteczności u_0 i funkcji użyteczności u(x,y) krzywa obojętności zdefiniowana jest jako zbiór tych punktów (x,y), które spełniają warunek u(x,y) = u_0.

Zakładając, że funkcja użyteczności u(x,y) jest różniczkowalna otrzymujemy:

 \frac{\partial u}{\partial x} dx + \frac{\partial u}{\partial y} dy = 0

skąd:

 \left . \frac{dy}{dx} \right |_{u=u_0} = - \frac{\partial u / \partial x}{\partial u / \partial y} = - Px / Py

Elastyczność substytucji pokazuje, o ile procent powinna zwiększyć się ilość j - tego towaru przy zmniejszeniu o jednostkę i - tego towaru, aby użyteczność koszyka towarów nie zmieniła się [1-7].

Warunki Kuhna-Tuckera są warunkami koniecznymi na to, by dany punkt mógł być punktem optymalnym badanej funkcji f(x) w obszarze ograniczonym zależnościami gi(x). Warunki te są równoważne warunkom istnienia punktu siodłowego funkcji Lagrange'a  zbudowanej na funkcji f(x) i ograniczeniach gi(x).

Zadanie formułowane jest następująco:

Poszukujemy maximum funkcji nieliniowej f(x) w obszarze n-wymiarowym określonym przez m ograniczeń:

gi(x) ≤ 0          dla 0< i ≤ u        ,

gi(x) ≥ 0         dla u< i ≤ v,

gi(x) = 0         dla v< i ≤ m        

przy ograniczeniach zmiennych niezależnych

xj ≥ 0                 dla  0< j ≤ s  ,

xj ≤ 0                 dla  s< j ≤ t

xj dowolnego znaku         dla  t< j ≤ n .

Formułujemy funkcję Lagrange'a  postaci:

L (x,l) = f(x) - ∑ li gi(x)

przy czym mnożniki Lagrange'a  li  powinny spełniać warunki (związane ze znakiem ograniczeń):

li ≥ 0                 dla  0< i ≤ u ,

li ≤ 0                 dla  u< i ≤ v ,

li dowolnego znaku         dla  v< i ≤ m, a także wówczas, gdy badany punkt leży na ograniczeniu, czyli gdy zachodzi w tym punkcie gi(x) = 0  dla dowolnego i.

Punktów spełniających te warunki może być więcej niż jeden - zwykle jest też ich kilka. Punkty leżące wewnątrz obszaru ograniczeń powinny dodatkowo spełniać warunek regularności, punkty leżące na brzegu nie muszą go spełniać. Przy ograniczeniach liniowych warunek regularności jest zawsze spełniony. Przy ograniczeniach nieliniowych jest on spełniony, gdy rząd macierzy G jest równy rzędowi macierzy Gf:

                        rząd G = rząd Gf .

Funkcja popytu wyraża zależność między ceną towaru a popytem na ten towar uwzględniając dochód konsumenta. Funkcja popytu  pokazuje jak popyt zależy od wektora cen oraz dochodu konsumenta.

 Funkcją popytu konsumenta nazywamy odwzorowanie , które każdej parze (p,I)>0 przyporządkowuje odpowiadające jej rozwiązanie  zadania maksymalizacji użyteczności konsumpcji.

 Popyt na i-ty towar zależy nie tylko od ceny tego towaru i dochodu, ale także od cen wszystkich pozostałych towarów. Funkcja popytu opisuje jak wraz ze zmianą cen i dochodu zmienia się popyt konsumenta na poszczególne towary, jeżeli maksymalizuje on użyteczność nabywanego koszyka.

Rozwiązanie zadania :

Obliczamy pochodne cząstkowe:

a) > 0                 > 0

Obie pochodne są większe od zera, a zatem jest to funkcja rosnąca. Obliczamy drugie pochodne proste:

                

Nie są mniejsze od zera, a zatem prawo Gossena nie jest spełnione. Krańcowe stopy substytucji:

                

Elastyczności substytucji:

                

b)

Obliczamy pochodne cząstkowe:

> 0                > 0

Obie pochodne są większe od zera, a zatem jest to funkcja rosnąca. Obliczamy drugie pochodne proste:

                         > 0

Nie są mniejsze od zera, a zatem prawo Gossena nie jest spełnione. Krańcowe stopy substytucji:

                

Elastyczności substytucji:

                

Zadanie  

Dla funkcji użyteczności u(x1,x2) =  wykonaj następujące polecenia:

a) zapisz zadanie maksymalizacji użyteczności konsumenta;

b) zapisz warunki Kuhna - Tuckera wyznaczające rozwiązanie oraz zinterpretuj te warunki;

c) wyznacz rozwiązanie zadania i zapisz funkcję popytu konsumenta

d) wyznacz krańcową stopę substytucji towaru pierwszego przez drugi, s12;

e) oblicz elastyczności dochodowe , elastyczności cenowe proste  i elastyczności cenowe krzyżowe , zinterpretuj je oraz ustal, jakiego rodzaju dobrami są towary 1 i 2;

f) sprawdź stopień jednorodności funkcji popytu oraz zinterpretuj wynik.

Rozwiązanie zadania 2:

a) Zadanie maksymalizacji użyteczności ma postać:

pod warunkiem, że:

 

Pochodne cząstkowe funkcji użyteczności:

        

Warunki Kuhna - Tuckera mają postać:

Aby otrzymać rozwiązanie, dzielimy dwa pierwsze równania przez siebie stronami. Otrzymujemy:

Upraszczamy do  

czyli

a zatem

Podstawiamy to do trzeciego równania i otrzymujemy:        

Rozwiązaniem tego równania jest:         

Rozwiązaniem dla x2 jest więc:        

Krańcowa stopa substytucji dla tej funkcji użyteczności wynosi:        

Podstawiamy otrzymany wcześniej punkt optymalny i otrzymujemy:

A zatem krańcowa stopa substytucji w punkcie optymalnym jest równa stosunkowi cen.

Funkcja popytu:        

Pochodne cząstkowe funkcji popytu względem cen i względem dochodu wynoszą:

                        

                        

Wobec tego elastyczności cenowe proste wynoszą:

        

Oba towary są dobrami normalnymi. Elastyczności cenowe krzyżowe:

                

Towary 1 i 2 nie są ani substytucyjne ani komplementarne. Elastyczności dochodowe:

                

Oba towary są zatem dobrami wyższego rzędu.

Ekonomia matematyczna – kierunek w ekonomii zajmujący się badaniem szeroko pojętych zjawisk gospodarczych przy użyciu zaawansowanych technik matematycznych.

Konstrukcja modelu matematycznego.

Model ekonomiczny to celowo uproszczony schemat gospodarczej rzeczywistości. Składa się on z założeń, definicji i zależności przyczynowo – skutkowych, dlatego też przedmiotem ekonomii matematycznej jest konstruowanie i badanie matematycznych modeli matematycznych rzeczywistych ekonomicznych metodami matematycznymi. Model matematyczny to obiekt, który zastępuje oryginał i odwzorowuje najistotniejsze dla danego procesu ekonomicznego cechy i własności oryginału. Model matematyczny ekonomii jest układem założeń, definicji i zależności przyczynowo – skutkowych, które opisywane są za pomocą pewnych wielkości, funkcji, równań i nierówności, zawierających dane, które są ustalone oraz dane, które należy określić. Zmienne modelu dzielimy na endogeniczne i egzogeniczne. Zmienne endogeniczne są generowane od wewnątrz, a zmienne egzogeniczne generowane z zewnątrz, ta taka zmienna, której wartości są ustalone.

Podstawowymi modelami matematycznymi ekonomii są:

W zastosowaniach ekonomicznych wyróżnia się następujące typy równań:

  1. Równania behawioralne – określają sposób, w jaki zachowuje się zmienna w reakcji na przyrosty innych zmiennych.
  2. Równania definicyjne – określają równość dwóch wyrażeń mających ten sam sens.
  3. Warunki równowagi– określają warunki równowagi lub nierównowagi modelu.

Modele równowagi rynkowej.

Rynek jest całokształtem transakcji kupna i sprzedaży oraz warunków, w jaki one przebiegają. Ustala on ceny towarów za pomocą współzależności popytu i podaży. Zjawiskiem pożądanym jest równowaga pomiędzy ilością towarów, jaką konsumenci mogą nabyć po określonej cenie i w określonym czasie, a ilością towarów zaoferowaną przez producentów do sprzedaży po danej cenie w określonym czasie– równowaga popytu i podaży.

Wyróżniamy trzy definicje równowagi [10-27]:

  1. Równowaga w sensie Walrasa oznacza stan gospodarki będącej w stanie spoczynku. Występuje w niej brak tendencji do zmian. Sytuacja, w której nie istnieją podmioty zainteresowane zmianą stanu równowagi. W tym stanie popyt jest równy podaży, a gospodarka nie podlega żadnym wpływom wewnętrznym. Analiza takiego stanu nazywa się analizą statyczną.
  2. Równowaga w sensie von Neumanna to stan gospodarki, w którym gospodarka może równomiernie zwiększyć produkcję, ale struktura produkcji zostaje zachowana.
  3. Równowaga w sensie neoklasycznym to stan równowagi pośredniej pomiędzy równowagą w sensie Walrasa a von Neumanna. Gospodarka znajduje się w równowadze, jeśli umożliwia równomierny wzrost wszystkich podstawowych wielkości ekonomicznych: produkcji, czynników produkcji, konsumpcji.
  1. Częściowa równowaga rynkowa.

Częściowa równowaga rynkowa to równowaga walrasowska; wyznaczenie stanu polega na znalezieniu takich wartości zmiennych endogenicznych, które będą spełniały warunki równowagi dla modelu.

Liniowy model rynku, przypadek jednego towaru.

Niech popyt d=d(p) będzie funkcją liniową malejącą zmiennej, a podaż s=s(p) będzie funkcją liniową rosnącą zmiennej p.

Matematyczny opis modelu wygląda następująco:

d=s,

gdzie:

d=d0-ap,                d0,a>0

s=s0+bp,                s0,b>0.

Wartość s*, d*, p* spełniające powyższe równania nazywane są wartościami równowagi. Zatem warunek równowagi spełnia para (p*, d*). Mamy Zatem:

d0-ap=-s0+bp.

Model nieliniowy, przypadek jednego towaru.

Model nieliniowy otrzymujemy, jeśli przynajmniej jedna z funkcji s(p) lub d(p) nie jest funkcją liniową. Wówczas warunek równowagi będzie wyglądał jak poprzednio:

d(p)=s(p).

Model input –output. Model Leontifa.

Rozważmy model gospodarki narodowej złożonej z n gałęzi. Vasilij Lentiefna podstawie obserwacji zjawisk ekonomicznych zauważył, że przepływy produkcji pomiędzy gałęziami są proporcjonalne do produkcji wytwarzanych w tych gałęziach, a następnie opracował model statyczny opisany w tablicy przepływów międzygałęziowych.

Model nakładów i wyników ma za zadanie ustalenie poziomu produkcji każdej gałęzi, tak aby popyt na nie został całkowicie zaspokojony.

  1. Równowaga bilansowa międzygałęziowej produkcji globalnej.

Rozważmy gospodarkę narodową składającą się z n gałęzi. Zakładamy, że poziom produkcji całkowitej każdej gałęzi jest uzależniony od wzajemnych powiązań w całej gospodarce oraz każda gałąź wytwarza jeden produkt w określonych proporcjach. Przepływy między gałęziami mogą być ustalone w tablicy nazywanej tablicą przepływów międzygałęziowych. Przez xi, i=1,2,…n będziemy oznaczać wielkość produkcji globalnej i-tej gałęzi. Przez xij będziemy oznaczać tę część produkcji globalnej i-tej gałęzi, która jest zużywana na potrzeby produkcji j-tej gałęzi i nazywać będziemy przepływem. Jeśli żadna gałąź nie używa własnego produktu jako nakładu, to wszystkie elementy xii będą równe zeru.Suma elementów i-tego wiersza jest równa zużyciu produkcyjnego wyrobu i-tej gałęzi lub inaczej popytowi pośredniemu. Część produkcji, która nie zostanie wykorzystana na potrzeby produkcyjne wszystkich gospodarek będziemy nazywać produktem końcowym tej gałęzi i oznaczać yi.

Bilans podziału produkcji globalnej i-tej gałęzi określamy wzorem:

 xi=

Model gospodarki, w którym nie uwzględniamy produktu końcowego nazywamy modelem zamkniętym, jeśli jednak jest on brany pod uwagę, model nazywamy modelem otwartym,. Układ równań będziemy nazywać układem równań bilansowych międzygałęziowej produkcji globalnej.

Po zsumowaniu względem i obu stron równania mamy:

.

Równania bilansowe kosztów.

Niech Mj oznacza koszty materiałów w j-tej gałęzi, Aj – amortyzacja, Vj – płaca, Zj – zysk, dj – wartość dodatnia j-tej gałęzi (produkcję czystą). Suma przepływów do j-tej gałęzi jest równa kosztom materiałów:

,        j=1,2,….,n.

Koszty materiałowe, amortyzacja i płace dają łączny koszt produkcji:

        j=1,2,…,n,

Natomiast różnica pomiędzy wielkością produkcji globalnej a poniesionymi kosztami daje zysk danej gałęzi:

        j=1,…,n.

Stąd otrzymujemy:                wartość dodatnią brutto zapisujemy następująco:                     zatem

                             

Równanie bilansowe kosztów:                

Sumując względem j obie strony powyższego równania otrzymujemy:


Porównując równania otrzymujemy:

, czyli

.

Jeśli tablica opisuje całą gospodarkę równanie powyższe jest równaniem równowagi ogólnej. Lewa strona równania opisuje dochód narodowy w ujęciu podażowym, natomiast prawa w ujęciu popytowym. Obie strony równania wyrażają produkt krajowy brutto. Produktem krajowym netto nazywamy różnicę PKB i amortyzacji. Dochodem narodowym brutto nazywamy różnicę pomiędzy dochodami gospodarki a zobowiązaniami wobec podmiotów zagranicznych. Różnicę dochodu narodowego brutto i amortyzacji nazywamy dochodem narodowym netto.

W przypadku gospodarki otwartej za podstawowe składniki popytu końcowego uważa się eksport i import towarów i usług, przy czym eksport jest dodawany, a import odejmowany od krajowej produkcji globalnej [15-17].

Bezrobocie na rynku informatycznym

        Bezrobocie to zjawisko polegające na tym, że pewna część ludzi zdolnych do pracy, poszukujących pracy i akceptujących istniejący poziom wynagrodzenia nie znajduje zatrudnienia.

Bezrobocie można rozpatrywać w skali makro i mikro. Z bezrobociem w skali makro mamy do czynienia w sytuacji, gdy na określonym obszarze geograficznym znaczna liczba osób zdolnych do podjęcia pracy pozostaje poza zatrudnieniem. Natomiast bezrobociem w skali mikro jest utrata pracy  z powodu braku kwalifikacji lub innych umiejętności pozwalających objąć i utrzymać stanowisko.
        Podstawowym miernikiem poziomu bezrobocia jest stopa bezrobocia, czyli ukazywana w procentach relacja pomiędzy liczbą zarejestrowanych osób bezrobotnych a liczbą osób czynnych zawodowo. Ta ostatnia grupa obejmuje wszystkich zdolnych do pracy w wieku od 15 do 65roku życia- to znaczy także bezrobotnych. Osoby nieosiągające lub przekraczające wymienione granice wieku stanowią odrębne kategorie, niezwiązane z pojęciami bezrobocia.

Czynniki hamujące rozwój rynku informatycznego:

Cechy rynku IT:

Zacierają się granice pomiędzy segmentami rynku,

Następuje nasycanie produktu usługami i równocześnie usługi są nasycane produktami,

Firmy rzadko się specjalizują wyłącznie w jednym rodzaju usług,

Rynek od strony popytu jest zdominowany przez odbiorców instytucjonalnych,

Czynniki ekonomiczne mają dominujący wpływ na kształtowanie rynku usług informatycznych zarówno w grupie dostawców jak i odbiorców.

Kondycja branży IT jest pochodną ogólnej sytuacji gospodarczej i bardzo silnie związana jest z potencjałem inwestycyjnym przedsiębiorstw. Pogorszenie sytuacji gospodarczej pociąga za sobą spadek wartości inwestowanych przez przedsiębiorców środków, w tym środków związanych z inwestycjami w infrastrukturę teleinformatyczną. Nie oznacza to oczywiście, że spadły potrzeby przedsiębiorstw związane z modernizacją ich zaplecza informatycznego, jednak dekoniunktura gospodarcza obecnie dotyka najbardziej producentów i dystrybutorów sprzętu teleinformatycznego, powodując spadek cen i zmniejszanie się możliwych do osiągnięcia marż.

Mimo zmieniającej się sytuacji na rynku pracy stale obserwujemy zapotrzebowanie na specjalistów i menedżerów IT. Absolwenci tych kierunków stanowią, bowiem o konkurencyjności polskiej gospodarki. Polscy pracodawcy narzekają wciąż na niewystarczającą liczbę kandydatów z odpowiednimi kwalifikacjami i doświadczeniem. W tym celu powstał m.in. rządowy program wspierania studentów kierunków kluczowych dla rozwoju polskiej gospodarki, który miał przekonać młodych ludzi, by podejmowali wymagające studia techniczne. Od studentów kierunków informatycznych wymaga się m.in. systematyczności, rzetelności, kreatywności i analitycznego myślenia.

Mimo, że wymagania na studia są wysokie, a liczba abiturientów informatyki w Polsce jest wciąż niezadowalająca, uczelnie nie poprzestają w działaniach promujących techniczne kierunki.

Po uruchomieniu silnika analizy Monte Carlo wartości zmiennych objaśniających losowane są zgodnie z przyjętym rozkładem prawdopodobieństwa. Dla każdej iteracji model finansowy oblicza automatycznie zmienną objaśniającą, która jest dołączana do bazy wyników. Po przeprowadzeniu założonej liczby prób (500) program sporządza dystrybuantę i histogram oraz oblicza wartości podstawowych statystyk tworząc raport końcowy. Poniżej zaprezentowano wyniki obliczeń dla przykładowego modelu finansowego.Analiza Monte Carlo jest zaawansowaną metodą symulacyjną stosowaną w analizie ryzyka dużych projektów inwestycyjnych.

Wynikiem metody Monte Carlo jest generowanie rozkładów prawdopodobieństwa zmiennych objaśnianych projektu na podstawie założeń odnośnie rozkładów prawdopodobieństwa zmiennych objaśniających [13-17].

Do przeprowadzania analizy metodą Monte Carlo można wykorzystywać wiele rozkładów prawdopodobieństwa, ale w przypadku wstępnych analiz, zwłaszcza, gdy nie dysponuje się dostateczną ilością informacji na temat charakteru rozkładu danej zmiennej, w praktyce często wykorzystuje się najprostsze rozkłady, takie jak prostokątny i trójkątny. Szczególnie przydatny jest rozkład trójkątny, który może zastępować np. rozkład normalny, czy logarytmiczno-normalny, a wymaga podania jedynie trzech wartości: minimalnej, maksymalnej i najbardziej prawdopodobnej.

W wyniku przeprowadzenia cykli symulacyjnych następuje automatyczne przeliczenie modelu finansowego oraz wyliczenie serii wartości zmiennej objaśnianej. Proces losowania kolejnych wartości zmiennych objaśniających jest głównym elementem analizy symulacyjnej. Liczba cykli symulacyjnych jest równa liczbie powtórzeń procedury generowana wartości dla każdej zmiennej objaśniającej oraz obliczania na ich podstawie wartości zmiennej objaśnianej. Seria cykli symulacyjnych służy do analizy częstości występowania otrzymanych szacunków zmiennej objaśnianej, które pozwalają ustalić dla niej funkcję gęstości prawdopodobieństwa.Analiza finansowa polega na porównaniu wpływów oraz wypływów generowanych przez dany projekt inwestycyjny w okresie prognozy. Do oceny efektywności finansowej projektów inwestycyjnych wykorzystuje się metody dyskontowe, które uwzględniają zmienną wartość pieniądza w czasie.

W celu zapewnienia porównywalności wielkości finansowych występujących w różnych okresach prognozy przyjmuje się rok bazowy, na który przelicza się wszystkie przyszłe strumienie pieniężne. W tym celu stosuje się dyskontowanie, za pomocą którego można przeliczyć przyszłe przepływy oszacowane w prognozie na rok bieżący.

Koszt pieniądza w czasie uwzględniony jest w stopie dyskontowej, która odzwierciedla alternatywny koszt kapitału, definiowany jako „oczekiwany zwrot z projektu będącego najlepszą alternatywą”. Dla uproszczenia można przyjąć, że alternatywą będzie lokata bankowa z rocznym oprocentowaniem np. 5%. Dyskontowanie to „sprowadzanie” przepływów występujących w przyszłości na bieżący moment za pomocą czynnika dyskontującego.

Wartość rezydualna to wartość środków trwałych będących przedmiotem projektu inwestycyjnego w ostatnim roku prognozy, po uwzględnieniu odpowiednich odpisów amortyzacyjnych.

Na strumień operacyjny składa się: zysk operacyjny minus skorygowane podatki, zmiana kapitału obrotowego, amortyzacja. Na strumień inwestycyjny składają się: dezinwestycje, nakłady inwestycyjne/odtworzeniowe. Pozycja zmiana kapitału obrotowego prezentuje zapotrzebowanie lub nadwyżkę gotówki wynikającą jednocześnie: z prowadzenia gospodarki zapasami, ze spływu należności od odbiorców oraz z regulowania zobowiązań wobec dostawców [10-17].Zapotrzebowanie na gotówkę w kontekście kapitału obrotowego zależy od: racjonalności gospodarowania zapasami, skuteczności w egzekucji należności od odbiorców oraz siły przetargowej w negocjowaniu warunków spłaty zobowiązań wobec dostawców.Zgodnie ze wzorem należy zdyskontować przepływy netto dla każdego okresu prognozy, dodać do siebie, a uzyskana suma odzwierciedla zysk/stratę w jednostkach pieniężnych wygenerowaną przez projekt inwestycyjny w okresie prognozy. Jeżeli:

Finansowa wewnętrzna stopa zwrotu FIRR to maksymalna możliwa do uzyskania stopa zwrotu z inwestycji, przy której finansowa bieżąca wartość netto FNPV zrównuje się z zerem, tj. projekt inwestycyjny jest na granicy opłacalności

FIRR

t – numer okresu, t = 0 – okres bieżący,  t = T – ostatni rok prognozy,

PN – przepływy netto = wpływy – wypływy.


Finansowa wewnętrzna stopa zwrotu odzwierciedla zysk/stratę w ujęciu procentowym wygenerowaną przez projekt inwestycyjny w okresie prognozy. Jeżeli:

Wskaźnik B/C jest ilorazem zdyskontowanych wpływów i wypływów

BC

t – numer okresu,  t = 0 – okres bieżący,  t = T – ostatni rok prognozy,  B – wpływy, 

C – wypływy.

Wskaźnik B/C odzwierciedla relację wpływów i wypływów wygenerowanych przez projekt inwestycyjnych w okresie prognozy. Jeżeli:

Model finansowy zawiera zmienne objaśniające oraz objaśniane, które są ze sobą odpowiednio powiązane. W kolejnym etapie cyklu symulacyjnego zmienne zostaną powiązane z silnikiem analizy Monte Carlo.

Metoda Monte Carlo stanowi końcowy etap analizy kosztów i korzyści z uwzględnieniem ryzyka i niepewności. Istnieje wiele uniwersalnych programów do przeprowadzania symulacji metodą Monte Carlo. Aplikacje tego typu, w tym m. in. RiskAmp, integrują się z arkuszem kalkulacyjnym i są silnikiem obliczeniowym analizy. Procedurę rozpoczyna się poprzez:

Po starcie wczytywane są dane z modelu finansowego dotyczące ilości zmiennych objaśniających, ich rozkładów losowych oraz liczby prób. Następnie w każdej iteracji zmienne są losowane zgodnie ze swoimi rozkładami, a wylosowane wartości przekazywane są do arkusza modelu finansowego obliczającego automatycznie NPV. Wartość NPV jest automatycznie zwracana do programu symulacyjnego i dołączana do bazy wyników. Po przeprowadzeniu założonej liczby prób program sporządza dystrybuantę i histogram NPV, oblicza wartości podstawowych statystyk  i tworzy raport końcowy analizy.Analiza symulacyjna Monte Carlo jest zaawansowaną metodą oceny ryzyka projektu inwestycyjnego i ważnym etapem w analizie kosztów i korzyści. Jej celem jest wyznaczenie i estymacja empirycznego rozkładu wartości zmiennej objaśnianej otrzymanego w wyniku wielokrotnych powtórzeń losowych zmian zmiennych objaśniających.Historycznie nazwa metody Monte Carlo wywodzi się z badań nad analizą statystyczną gier hazardowych. Prekursorami tej metody są dwaj matematycy: Stanisław Ulam i John von Neumann, którzy wyszli z założenia, że w wielu przypadkach zależności nie mające nawet charakteru stochastycznego łatwiej jest oszacować na podstawie eksperymentu stochastycznego niż przy wykorzystaniu analizy matematycznej. Metoda powstała przy projektowaniu osłon, podczas produkcji pierwszej bomby atomowej, ponieważ problem był zbyt skomplikowany, by go rozwiązać analitycznie i zbyt niebezpieczny, by rozwiązywać go przy pomocy eksperymentów fizycznych.

Cykl symulacyjny w analizie Monte Carlo obejmuje:

W wyniku zastosowania metody Monte Carlo otrzymuje się zestaw podstawowych statystyk, histogram przedstawiający graficzny rozkład badanej cechy oraz dystrybuantę, która pozwala określić prawdopodobieństwo z jakim badana cecha przyjmie wartości mniejsze, większe lub równe od zakładanej wielkości.

Teoria ogólna

Ekonomia matematyczna stanowi tę część ekonomii, która zajmuje się modelowaniem procesów zachodzących w gospodarce za pomocą modeli matematycznych. W modelach ekonomii matematycznej ekonomiści na podstawie obserwacji otaczającej rzeczywistości, formułują założenia, opisujące procesy występujące w gospodarce, za pomocą pewnych matematycznych zależności tożsamościowych lub funkcyjnych. Następnie modele rozwiązują i uzyskanemu rozwiązaniu nadają interpretację ekonomiczną.

Według E. Pianka „Opisując zjawisko ekonomiczne w języku matematycznym, tworzymy jego model matematyczny w postaci układu założeń matematycznych o powiązaniach między charakteryzującymi to zjawisko zmiennymi ekonomicznymi.

Gdyby obserwacja rzeczywistości ekonomicznej dawała nam tylko jeden możliwy do przyjęcia układ założeń, wtedy w zakresie zjawisk kwantyfikowalnych ekonomia matematyczna byłaby jedyną teorią ekonomiczną, pozwalającą – jak każda dobra teoria – na przewidywanie zachowania podmiotów gospodarczych i zmienność warunków, w jakich działają, nie dają podstawy do przyjęcia jednego układu założeń, wskutek czego ekonomia matematyczna dzieli się na wiele różnych modeli, niemających wartości uniwersalnej”. Innymi słowy, wnioski, które płyną z poprawnie skonstruowanego modelu ekonomii matematycznej, pozostają prawdziwe tylko na gruncie założeń przyjmowanych w modelu.

Jeśli w rzeczywistości gospodarczej założenia przyjmowane w modelu nie są spełnione lub są spełnione jedynie częściowo, to wnioski, które wynikają z modelu matematycznego, nie muszą być adekwatne do opisywanej rzeczywistości.

        Modele ekonomii matematycznej, w przeciwieństwie do modeli ekonometrycznych, zazwyczaj mają charakter modeli teoretycznych, gdyż nie odnoszą się do konkretnego przedmiotu ekonomicznego czy też konkretnej gospodarki. Natomiast w modelach ekonometrycznych korzystając ze zbiorów danych statystycznych dotyczących funkcjonowania określonego podmiotu gospodarczego lub gospodarki, szacuje się wartości parametrów równań opisujących funkcjonowanie owego podmiotu lub gospodarki. Dlatego też „ekonometria jest nauką pomocniczą, umożliwiającą weryfikację hipotez i założeń przyjmowanych w ekonomii matematycznej.

Ekonomiści matematyczni, bardziej dbający o czystość teorii niż o jej przystawanie do rzeczywistości, nie w pełni wykorzystują możliwości ekonometrii, dysponującej arsenałem metod pozwalających na weryfikację przyjmowanych często ad hoc założeń. Ekonometrycy zaś nie potrafią wyjść poza modele działania konkretnej gospodarki w konkretnym czasie. Dlatego żywot modeli ekonometrycznych jest na ogół krótki, co powoduje, że nie tworzą one zazwyczaj teorii ekonomicznych. Płynie stąd prosty wniosek: ekonomia matematyczna nie może istnieć bez ekonometrii, a ekonometria nie jest w stanie właściwie rozwijać się bez ekonomii matematycznej”.

Modele ekonomii matematycznej można podzielić na modele statyczne i dynamiczne bądź też na modele mikroekonomiczne i makroekonomiczne. Modele statyczne opisują funkcjonowanie pewnego przedmiotu ekonomicznego lub gospodarki w pewnym momencie. Natomiast w modelach dynamicznych analizuje się zachowanie podmiotów ekonomicznych albo gospodarki w pewnym przedziale czasu. Modele mikroekonomiczne są zaś opisem działania pewnego podmiotu mikroekonomicznego bądź też rynku pewnego dobra lub usługi. natomiast modele makroekonomiczne próbuje opisać funkcjonowanie gospodarki jako całości.

Teoria szczególna:

Funkcja użyteczności jest sposobem przyporządkowywania liczb każdemu koszykowi konsumpcji, w taki sposób iż bardziej preferowane koszyki otrzymują wyższe numery. Oznacza to, że koszyk A jest preferowany bardziej niż koszyk B wtedy i tylko wtedy gdy koszyk A ma większą użyteczność od koszyka B.

Gdy zwracamy uwagę tylko na określenie kolejności i hierarchii owych koszyków to taki rodzaj użyteczności w literaturze określany jest mianem użyteczności porządkowej, gdyż kładzie on nacisk na porządkowanie konsumowanych koszyków dóbr. Geometrycznym obrazem takich funkcji użyteczności są np. krzywe obojętności. Koszyki leżące na tej samej krzywej obojętności muszą mieć tę samą użyteczność.W opracowaniach spotyka się również pojęcie użyteczności kardynalnej, która w przeciwieństwie do użyteczności porządkowej określałaby różnicę w preferowaniu jednego koszyka względem drugiego. Jednakże problem w wyborze odpowiedniego miernika i brak potrzeby dokładnego określania owej różnicy, przesądza o tym, iż ta teoria nie jest obiektem większego zainteresowania przy opisie procesu dokonywania wyboru.

Krańcowa stopa substytucji – stosunek wymiany, przy którym konsument skłonny jest dokonać wymiany dobra X na dobro Y i na odwrót. Zależy od krzywych użyteczności osiąganych z konsumpcji danych dóbr i stanu posiadania. Innymi słowy krańcowa stopa substytucji jest to stosunek przyrostu konsumpcji jednego dobra do ubytku konsumpcji innego– taki, że konsument nie zmienia osiąganej użyteczności i przy założeniu, że jego krzywa obojętności pozostaje niezmieniona. Ponieważ zakładamy, że użyteczność osiągana z konsumpcji kolejnych porcji danego dobra jest malejąca, krańcowa stopa substytucji jest zawsze malejąca.

Macierze G i Gf: mają postać:

Funkcja popytu wyraża zależność między ceną towaru a popytem na ten towar uwzględniając dochód konsumenta. Funkcja popytu  pokazuje jak popyt zależy od wektora cen oraz dochodu konsumenta.

 Funkcją popytu konsumenta nazywamy odwzorowanie , które każdej parze (p,I)>0 przyporządkowuje odpowiadające jej rozwiązanie  zadania maksymalizacji użyteczności konsumpcji.

 Popyt na i-ty towar zależy nie tylko od ceny tego towaru i dochodu, ale także od cen wszystkich pozostałych towarów. Funkcja popytu opisuje jak wraz ze zmianą cen i dochodu zmienia się popyt konsumenta na poszczególne towary, jeżeli maksymalizuje on użyteczność nabywanego koszyka.

Obszary nauki wchodzące w skład ekonomii matematycznej

        Ekonomia matematyczna stanowi uzupełnienie innych obszarów nauki, między innymi:

- statystyki,

- ekonometrii,

- prognozowania,

- badań operacyjnych.

8 METODY NUMERYCZNE W EKONOMETRII

Jednym z klasycznych warunków modelowania ekonometrycznego, zarówno w przypadku danych przekrojowych, jak i postaci szeregów czasowych, jest kompletność danych statystycznych. Występowanie luk wprawdzie utrudnia, ale nie uniemożliwia modelowania i prognozowania zmiennych ekonomicznych.

Do prognozowania brakujących danych w szeregach czasowych mogą być wykorzystywane różne metody. Stosowanie poszczególnych metod wymaga spełnienia określonych założeń. Przykładowo w modelach adaptacyjnych szeregi czasowe powinny zawierać pewną liczbę obserwacji początkowych, które są niezbędne do wyznaczania wartości startowych. Z kolei inne metody numeryczne mogą być stosowane wyłącznie do obliczania prognoz interpolacyjnych.

Ważnym czynnikiem wpływającym na wybór metody jest występowanie  wahań sezonowych. Modele klasycznego szeregu czasowego, w których sezonowość opisywana jest ze pomocą zmiennych zerojedynkowych, mogą służyć do modelowania i prognozowania w warunkach niepełnej informacji jedynie wówczas, gdy występują niesystematyczne luki w danych. Natomiast modele szeregu czasowego z wielomianem trygonometrycznym oraz modele hierarchiczne mogą być wykorzystywane zarówno w przypadku luk systematycznych, jak i niesystematycznych.

Istotnym ograniczeniem związanym ze stosowaniem metod numerycznych jest to, że mogą one być stosowane bezpośrednio w szeregach czasowych niezawierających wahań sezonowych lub takich, z których została wyeliminowana sezonowość.

Procedura prognozowania przebiega następująco: W pierwszej kolejności eliminuje się sezonowość, a następnie oblicza prognozy tylko interpolacyjne lub interpolacyjne i ekstrapolacyjne. Tak otrzymane prognozy mnoży się przez wskaźniki sezonowości. Tego rodzaju procedura zostanie wykorzystana w pracy w prognozowaniu skupu mleka. W przypadku niektórych metod numerycznych luki nie mogą występować na początku oraz na końcu szeregu.

8. 1 Metoda odcinkowa

Metoda odcinkowa jest wykorzystywana do interpolacji brakujących danych statystycznych. Jest stosowana szczególnie wówczas, gdy  liczba znanych wyrazów szeregu czasowego jest mała, a ich przebieg w czasie cechuje niewielka regularność, co uniemożliwia dopasowanie odpowiedniej funkcji trendu.

Maksymalnymi ocenami wskaźników charakteryzują się miesiące letnie, a minimalnymi zimowe. Różnica pomiędzy okresami o najwyższym i najniższym natężaniu skupu mleka wynosi 29 punktów procentowych. Jak wspomniano wyżej, metody numeryczne nie mogą być wykorzystane bezpośrednio do budowy prognoz z wahaniami sezonowymi. Dlatego przed ich zastosowaniem z oryginalnego szeregu wyeliminowano sezonowość, dzieląc jego wartości przez wskaźniki sezonowe.

Warianty te otrzymano poprzez „wymazanie” części danych z oryginalnego szeregu. Analiza dokładności prognoz będzie polegała na wyznaczeniu średnich względnych różnic między prognozami interpolacyjnymi  i ekstrapolacyjnymi a realizacjami badanej zmiennej.

Dla prognoz ekstrapolacyjnych została przeprowadzona analiza ex-post ich dokładności. Prognozy ekstrapolacyjne wyznaczono dla horyzontu h = 8.

Literatura do rozdziału 8

  1. Broda M., Zarządzanie ryzykiem, Przegląd Ubezpieczeń Społecznych i Gospodarczych, 1997r, nr 9.
  2. Capik M.i M., Zarządzanie ryzykiem ubezpieczeniowym dużych podmiotów gospodarczych, Prawo, Ubezpieczenia, Reasekuracja, 1997r, nr 2.
  3. Ciszek W., Problemy zarządzania ryzykiem w ubezpieczeniach majątkowych zakładów petrochemicznych, 1998r., Gdynia.
  4. Ciszek W., Zagadnienia oceny ryzyka w ubezpieczeniach przedsięwzięć budowlano - montażowych, Prawo Ubezpieczenia, Reasekuracja, 1999r., nr 6.
  5. Cloarec M., Zarządzanie ryzykiem w małych i średnich firmach, Biuletyn Informacyjny Klubu Polskie Forum ISO 9000, 1999r., nr 2.
  6. Jamroży W., Underwriting w ubezpieczeniach na życie, Wiadomości Ubezpieczeniowe, 1996r, nr 4,5,6.
  7. Jedynak P., Ryzyko roku 2000, Przegląd Ubezpieczeń Społecznych i Gospodarczych, 1999r., nr 6.
  8. Luffrum G.G., Life underwriting, Institute of Actuaries, Oxford 1990.
  9. Nowak C., Podstawy zarządzania ryzykiem, Wiadomości Ubezpieczeniowe, 1999r, nr 3/4a.
  10. Rogala I., Rola i znaczenie underwritingu w kształtowaniu i realizacji strategii firmy ubezpieczeniowej, Prawo Asekuracyjne, 1997r, nr 3.
  11. Ronka-Chmielowiec W., Ryzyko w ubezpieczeniach-metody oceny, AE Wrocław 1997r.
  12. Sangowski T., (red.)Ubezpieczenia gospodarcze, Poltext, Warszawa 1998r.
  13. Sangowski T., (red.)Vademecum ubezpieczeń gospodarczych, Saga Printing, Poznań 1998r.
  14. Swiss Re, Critical Illness Underwriting - Rating Guidelines,1995r.
  15. Swiss Re, Life Underwriting - Rating Guidelines, 1995r.
  16. ¦leszycki Z. Prezes Makler Market; Doradca ds. ubezpieczeń Elektrim S.A., Wywiad M. Bartosiak pt.: Ryzyka nie zabraknie, Prawo, Ubezpieczenia, Reasekuracja, 1997r, nr 9.
  17. Zasadziński W., Budzący się rynek zarządzania ryzykiem, Wiadomości Ubezpieczeniowe, 1997r., nr 1,2.
  18. Zdanowski M., Zarządzanie ryzykiem, Prawo Asekuracyjne, 1996r, nr 3.
  19. Wysoczański W. Doświadczenie i perspektywy inowacji we współpracy międzynarodowej”. Konf. Międzynarodowa, Jaremcza 04-06. 1999.

PODSUMOWANIE

Z przeprowadzonej analizy i rozważań wynika, że wykorzystanie wybranych metod cybernetyki ekonomicznej w zarządzaniu i w prognozowaniu może być bardzo efektywne. Należy jednak zauważyć, że metody powinny być wykorzystane w prognozowaniu interpolacyjnym, a inne w prognozowaniu ekstrapolacyjnym. Prognozy interpolacyjne o najniższych błędach otrzymano metodą odcinkową.

W przypadku prognoz ekstrapolacyjnych była to metoda Lagrange’a z trzema węzłami rozmieszczonymi proporcjonalnie, a następnie ta sama metoda dla trzech węzłów rozmieszczonych zgodnie z regułą Czebyszewa. W toku badań stwierdzono, że liczba oraz rozmieszczanie luk wpływają na dokładność prognoz zarówno interpolacyjnych, jak i ekstrapolacyjnych.


[1] W. Tarczyński, M. Mojsewicz, Zarządzanie ryzykiem, Polskie Wydawnictwo Ekonomiczne, Warszawa, 2001, str. 11

[2] T. T. Kaczmarek, Ryzyko i zarządzanie ryzykiem. Ujęcie interdyscyplinarne, Wyd. Difin, Warszawa, 2006, str. 49

[3] W. Tarczyński, M. Mojsewicz, Zarządzanie ryzykiem, Polskie Wydawnictwo Ekonomiczne, Warszawa, 2001, str. 12

[4] T. T. Kaczmarek, Ryzyko i zarządzanie ryzykiem. Ujęcie interdyscyplinarne, Wyd. Difin, Warszawa, 2006, str. 49

[5] T. T. Kaczmarek, Ryzyko i zarządzanie ryzykiem. Ujęcie interdyscyplinarne, Wyd. Difin, Warszawa, 2006, str. 54-55

[6] Mały Rocznik Statystyczny Polski 2013, GUS, Warszawa, 2013, str. 151-152

[7] A. Sudoł, Przedsiębiorstwo. Podstawy nauki o przedsiębiorstwie. Zarządzanie przedsiębiorstwem, Polskie Wyd. Ekonomiczne, Warszawa, 2006, str. 36

[8] A. Sudoł, Przedsiębiorstwo. Podstawy nauki o przedsiębiorstwie. Zarządzanie przedsiębiorstwem, Polskie Wyd. Ekonomiczne, Warszawa, 2006, str. 36

[9] A. Sudoł, Przedsiębiorstwo. Podstawy nauki o przedsiębiorstwie. Zarządzanie przedsiębiorstwem, Polskie Wyd. Ekonomiczne, Warszawa, 2006, str. 37-38

[10] Ustawa o przedsiębiorstwach państwowych z dnia 25 września 1981 r., Dz. U. z 2013 r. poz. 1384, art. 1

[11] Ustawa o przedsiębiorstwach państwowych z dnia 25 września 1981 r., Dz. U. z 2013 r. poz. 1384, art. 5

[12] T. T. Kaczmarek, Ryzyko i zarządzanie ryzykiem. Ujęcie interdyscyplinarne, Wyd. Difin, Warszawa, 2006, str. 52

[13] W. Tarczyński, M. Mojsewicz, Zarządzanie ryzykiem, Polskie Wydawnictwo Ekonomiczne, Warszawa, 2001, str. 12

[14] W. Tarczyński, M. Mojsewicz, Zarządzanie ryzykiem, Polskie Wydawnictwo Ekonomiczne, Warszawa, 2001, str. 16

[15] http://stat.gov.pl/obszary-tematyczne/ceny-handel/wskazniki-cen/wskazniki-cen-towarow-i-uslug-konsumpcyjnych-pot-inflacja-/, 2014. 04.28

[16] Ustawa o promocji zatrudnienia i instytucjach rynku pracy z dnia 20 kwietnia 2004 r., Dz. U. z 2013 r. Nr 99, poz. 1001, art.2

[17] D. Begg, S. Fischer, R. Dornbusch, Mikroekonomia, Polskie Wyd. Ekonomiczne, Warszawa, 2007, str.56

[18]