VI KONFERENCJA NAUKOWA
Modelowanie i prognozowanie gospodarki narodowej
Sopot, 06-08.05.2015
Streszczenia referatów
Jacek Batóg
Uniwersytet Szczeciński
Analiza wpływu kryzysów gospodarczych i zadłużenia publicznego na konwergencję dochodową w krajach Unii Europejskiej w latach 1993-2013
W artykule analizie poddany zostanie wpływ koniunktury gospodarczej na zjawisko konwergencji dochodowej typu β oraz σ w krajach Unii Europejskiej. Szczególna uwaga zostanie zwrócona na powiązanie zbieżności dochodowej z poziomem zadłużenia publicznego oraz poziomem deficytów budżetowych, czyli dwóch najważniejszych skutków ostatniego ogólnoświatowego kryzysu ekonomicznego. Oprócz wykorzystania standardowych miar i modeli konwergencji realnej podjęta zostanie również próba budowy modeli konwergencji warunkowej. Odrębny obszar analizy stanowić będzie ocena odporności wzrostu gospodarczego krajów Unii Europejskiej na zakłócenia makroekonomiczne. Uzupełniona ona zostanie przez próbę odpowiedzi na pytanie: czy mamy do czynienia z zależnością polegającą na niskim poziomie zadłużenia gospodarki w okresie pokryzysowym jako efektem wysokiej odporności na szoki zachodzące w procesach finansowych i realnych w danym kraju i jego otoczeniu czy może raczej z zależnością odwrotną, w przypadku której siła spowolnienia gospodarczego zależy od pierwotnego poziomu zadłużenia gospodarki. Dane statystyczne wykorzystane w obliczeniach pochodzić będą głównie z bazy Euromonitor International.
Jacek Bednarz
Edward Kozłowski
Katolicki Uniwersytet Lubelski Jana Pawła II
Badanie własności kursów efektywnych w perspektywie pytania o stabilność rynków walutowych
Efektywny kurs walutowy stanowi syntetyczne odzwierciedlenie zmiany swoistego parytetu atrakcyjności danej waluty względem pozostałych, a zwłaszcza tych, w których rozliczane są transakcje handlu zagranicznego. Postępujący proces globalizacji prowadzi do wzrostu powiązań i zależności ekonomicznych pomiędzy krajami. Nieuchronną konsekwencją swobodnego przepływu kapitałów jest również wzrost znaczenia kursu wymiany walut dla funkcjonowania poszczególnych gospodarek. Niestabilność poszczególnych walut utożsamia się z pogorszeniem warunków makroekonomicznych dla gospodarek posługujących się daną walutą. Czy własności poszczególnych kursów efektywnych mają wpływ na stabilność całego sytemu kursów walutowych? Celem przedkładanego opracowania jest próba odpowiedzi na tak postawione pytanie. Uzyskane wyniki wskazują, że pośród badanych zmiennych możemy zaobserwować takie, które znacząco przyczyniają się do minimalizacji wariancji, a tym samym stabilizacji, całego systemu.
Mirosław Bełej
Sławomir Kulesza
Uniwersytet Warmińsko-Mazurski
Modelowanie dynamiki szeregów czasowych cen nieruchomości
Rynki nieruchomości są układami dynamicznymi o dużej bezwładności w stosunku do innych układów ekonomicznych a więc reagującymi znacznie wolniej na zmiany uwarunkowań zewnętrznych. Bezwładność rynków nieruchomości ujawnia się podczas zmian gwałtownych, gdy w krótkim okresie ulegają one głębokim przeobrażeniom strukturalnym, zaś podczas ewolucji długofalowej tempo zmian stanu jest na tyle powolne, że układy te pozostają w pobliżu równowagi. W pracy podjęto się próby wyciągnięcia ogólnych wniosków, co do natury samego rynku nieruchomości i procesów na nim zachodzących biorąc pod uwagę wartości pojedynczych szeregów czasowych cen nieruchomości o funkcji mieszkalnej na rynkach lokalnych w Warszawie, Krakowie i Poznaniu. W badaniach zastosowano model oscylatora harmonicznego oraz skonstruowano wykresy fazowe w przestrzeni 3D.
Beata Bieszk-Stolorz
Iwona Markowicz
Uniwersytet Szczeciński
Ilościowa analiza skuteczności realizacji programu wsparcia bezrobotnych
Celem artykułu jest analiza skuteczności realizacji programu wsparcia bezrobotnych. Obserwacji poddano czas trwania bezrobocia osób wyrejestrowanych z Powiatowego Urzędu Pracy w Koszalinie w drugim półroczu 2011 roku. W okresie tym w powiatach Koszalin i koszalińskim realizowany był Program 45-50 Plus, finansowany ze środków Funduszu Pracy, nakierowany na poprawę aktywności zawodowej wybranej grupy bezrobotnych. Grupę kontrolną stanowią osoby wyrejestrowane w pierwszym półroczu 2011 roku, w okresie poprzedzającym wprowadzenie programu. Głównym narzędziem badawczym jest postać ostra modelu regresji nieciągłej (sharp regression discontinuity design RDD). Model ten pozwolił na oszacowanie różnicy w średnim czasie trwania bezrobocia w progu kwalifikowalności 45 lat, dzielącym zbiorowość na dwie podgrupy: objętą i nieobjętą programem. Przy zastosowaniu omówionej metody wykazano istotny wpływ realizowanego projektu na poprawę sytuacji osób bezrobotnych w wieku 45 lat i więcej.
Jerzy Boehlke
Marcin Fałdziński
Maciej Gałecki
Magdalena Osińska
Uniwersytet Mikołaja Kopernika w Toruniu
Ekonometryczna analiza tempa wzrostu gospodarki Irlandii w latach 1980-2014 jako przykład cudu gospodarczego
Celem referatu jest ekonometryczna analiza czynników wzrostu gospodarczego w Irlandii postrzeganej powszechnie jako kraj, którego gospodarka doznała w latach 1982 - 1995 cudu gospodarczego, opisywanego przez zachodzące tam zmiany społeczno-gospodarcze wyrażające się w wyższym tempie wzrostu gospodarczego, a będące rezultatem zmian strukturalnych, instytucjonalnych i społeczno-politycznych.
W literaturze z zakresu historii gospodarczej, teorii rozwoju gospodarczego polityki ekonomicznej wyróżnić można trzy podejścia do definiowania pojęcia „cud gospodarczy”. Pierwsze, oparte na doświadczeniach historycznych, traktuje pojęcie cudu jako pewną metaforę, termin z języka potocznego lub charakterystykę okresów rozwoju gospodarczego wybranych krajów np. cud niemiecki, chilijski, japoński itp. (Landes 1998, Emilson 2005, Jones 2003, Vietor 2006). Drugie, odwołuje się do teorii wzrostu gospodarczego. Przy tym podejściu cud gospodarczy to okres szybszego od oczekiwanego tempa wzrostu gospodarczego danego kraju (dotyczy to często krajów zaklasyfikowanych do grup charakteryzowanych osiągniętym poziomem rozwoju gospodarczego mierzonym PKB per capita). Z kolei trzecie podejście związane jest z historycznym procesem powstania i dominacji kapitalizmu zachodnioeuropejskiego (Werner 1988, Hobson 2004).
Cudu irlandzkiego, w przeciwieństwie np. do Japonii, nie należy wiązać z procesami modernizacji, gdyż te zaszły wcześniej, w szczególności w latach 50. i 60. XX w. a z reformami gospodarczymi, których rezultatem było: ograniczenie stopy bezrobocia, poprawa międzynarodowej konkurencyjności gospodarki irlandzkiej, przywrócenie równowagi finansów publicznych i zmiany w systemie podatkowym. Realizacja przygotowanego programu reform wiązała się z konsensusem społecznym opartym na porozumieniu rządu, organizacji rolników i związków zawodowych.
Narzędziem analizy ekonometrycznej jest progowy model korekty błędem oszacowany dla gospodarki irlandzkiej w latach 1980-2014, umożliwiający identyfikację okresów normalnego i przyśpieszonego wzrostu gospodarczego oraz wpływ kryzysu gospodarczego na gospodarkę irlandzką.
Mateusz Bogdański
Krystyna Strzała
Uniwersytet Gdański
Bliźniaczy deficyt – zależność liniowa czy nieliniowa
Celem referatu jest przedstawienie wyników weryfikacji empirycznej powiązań deficytów budżetowych (BD) i deficytów na rachunku bilansu płatniczego (CA) krajów członkowskich Unii Europejskiej z wykorzystaniem najnowszych testów nieliniowej przyczynowości według Grangera, tj. testu Diksa i Panchenko (2006). Zastosowanie panelowego testu liniowej przyczynowości według Grangera do bazy danych krajów należących do UE za okres 1996-2012, pozwala sformułować wniosek o występowaniu jednokierunkowej zależności przebiegającej od BD do CA, a więc o nie występowaniu bliźniaczego deficytu (TDH). Ponieważ łańcuch powiązań BD i CA wskazywany w różnych nurtach teorii ekonomii nie jest jednoznacznie sformułowany, powstaje pytanie czy nie należy poszukiwać relacji nieliniowej łączącej rachunek bieżący z deficytem budżetowym, co świadczyłoby o występowaniu bliźniaczego deficytu wraz z całą gamą wynikających z TDH konsekwencji dla polityki gospodarczej państw UE.
Małgorzata Borzyszkowska
Uniwersytet Gdański
Weryfikacja empiryczna hipotezy neutralności pieniądza w Polsce w latach 1996-2012
Przedmiotem badań jest weryfikacja empiryczna hipotezy neutralności pieniądza względem zmiennej realnej, dla gospodarki Polski a latach 1996-2012. W badaniu wykorzystano podstawowe agregaty pieniężne oraz indeks produkcji przemysłowej. Do analizy wykorzystano analizę integracji zmiennych, techniki modelowania wektorowo - autoregresyjnego oraz dekompozycję Blancharda-Quaha. Referat stanowi kontynuację wcześniejszych badań, na podstawie których ustalono, że procesy generujące obserwacje agregatów pieniężnych są niestacjonarne, zintegrowane w stopniu pierwszym. Okres próby obejmuje lata 1996-2012, dane o częstotliwości kwartalnej.
Tomasz Brodzicki
Dorota Ciołek
Uniwersytet Gdański
Empiryczna weryfikacja wpływu kapitału terytorialnego na rozwój polskich powiatów. Podejście neoklasyczne
Celem niniejszego opracowania jest empiryczna identyfikacja wpływu kapitału terytorialnego, a dokładnie jego poszczególnych składników sklasyfikowanych według kluczy terytorialnych, na tempo rozwoju polskich regionów. W odróżnieniu od większości dotychczasowych analiz, które dla polskiej gospodarki prowadzone były na poziomie województw, w prezentowanym badaniu przyjęto wysoce zdezagregowany przestrzennie poziom NUTS-4, czyli powiaty, dla których szczególnie istotne są interakcje oraz zależności przestrzenne i terytorialne. Na tym poziomie agregacji ujawnia się równie występowanie różnorodnych efektów zewnętrznych i rozlewania się procesów rozwojowych, co jest uzasadnieniem do wykorzystania odpowiednich narzędzi ekonometrii przestrzennej.
Kapitał terytorialny różni się znacząco od klasycznych czynników produkcji, jakimi są kapitał fizyczny, czy nakład pracy. Przede wszystkim nie może być uznany za czynnik bezpośrednio wypływający na zmiany wielkości produkcji, czyli jego wzrost nie prowadzi wprost do powiększenia wyników procesu produkcyjnego. Natomiast należy spodziewać się, że wartość kapitału terytorialnego może mieć znaczenie dla produktywności bezpośrednich czynników produkcji, czyli kapitału i pracy. Zatem definiując funkcję produkcji należy założyć, że kapitał terytorialny nie wpływa wprost na produkcję, ale wpływa na łączną produktywność wszystkich czynników wytwórczych (TFP), pośrednio przyczyniając się do wzrostu wartości produktu.
Prezentowane badanie składało się z dwóch etapów. W pierwszym wykorzystując założenia neoklasycznej funkcji produkcji oszacowano szeregi TFP dla wszystkich polskich powiatów w okresie 2003-2011. Drugi etap polegał na oszacowaniu modeli wyjaśniających zmienność przekrojowo-czasową łącznej produktywności ze szczególnym uwzględnieniem zmiennych reprezentujących kapitał terytorialny. Po wcześniejszej weryfikacji modele szacowane były jako panelowe modele przestrzennej autokorelacji błędu SEM (Spatial Error Model).
Dorota Ciołek
Ilona Wrześniewska
Tomasz Zarzycki
Uniwersytet Gdański
Ocena wysokości i modelowanie determinant deklarowanej gotowości do zapłaty (WTP) w celu oszacowania ekonomicznej wartości procesów równoważenia skutków eutrofizacji - regulacyjnej usługi ekosystemowej Zatoki Gdańskiej
Coraz większa część PKB powstaje na morzu. Komisja Europejska wręcz mówi o „błękitnym wzroście”. Wzrost intensywności eksploatacji zasobów morza (energii wiatru, falowania, minerałów, procesów) wymaga dogłębnego zidentyfikowania wszelkich pożytków, jakie z niego czerpiemy. Szczególnie, że część z nich ma charakter pozytywnych efektów zewnętrznych. Ważną kategorią w tym zakresie są tzw. regulacyjne usługi ekosystemowe - np. procesy równoważące skutki eutrofizacji. Wyceny ekonomiczne dotyczące usług regulacyjnych, wykonanych w kontekście konkretnych warunków środowiskowo – ekonomicznych to nowy obszar badań ekosystemów morskich. Usługi regulacyjne ekosystemu Zatoki Gdańskiej zostały poddane analizie socjo-ekonomicznej po raz pierwszy.
Szacowanie ekonomicznej wartości procesów równoważenia skutków eutrofizacji wykonano metodą wyceny warunkowej (Contingen Valuation Method - CVM). Główne badanie CVM przeprowadzono na reprezentatywnej grupie 1000 dorosłych Polaków. Na podstawie wyników ankiety wyznaczono średnią wartość WTP (Willingness to Pay) zadeklarowaną przez respondentów. Wskazano miary tendencji centralnej gotowości do zapłaty za usługę równoważenia skutków eutrofizacji. Wykorzystując modele tobitowe dla zmiennych uciętych, zbadano wpływ na wartość WTP zmiennych socjologicznych, ekonomicznych i demograficznych. Uwzględnienie socjo-demograficznych zmiennych objaśniających pozwoliło na lepsze zrozumienie czynników kształtujących WTP oraz szersze wykorzystanie modelu do agregacji wyników dla całej populacji Polski.
Identyfikacja tych części ekosystemu (zarówno abiotycznych jak i biotycznych), które bezpośrednio odpowiadają za produkcję usług jest potrzebna do prawidłowego gospodarowania zasobami morza oraz dokonywania wyborów pomiędzy celami ekonomicznymi, społecznymi i ekologicznymi. Wyceny socjoekonomiczne usług ekosystemowych stają się ważnym elementem korzyści czerpanych przez konsumentów, a więc naszego dobrobytu.
Ewa Czapla
Politechnika Koszalińska
Długookresowe powiązania krótko- i długoterminowych stóp procentowych Polski i strefy euro
Celem artykułu jest ocena istnienia i charakteru powiązań długookresowych między krótko- i długoterminowymi stopami procentowymi Polski i strefy euro. W badaniach zostaną wykorzystane szeregi czasowe trzymiesięcznych i dziesięcioletnich stóp procentowych dla okresu 01.2000-12.2009, z miesięczną częstotliwością obserwacji. W pierwszej kolejności zostanie sprawdzone, czy wszystkie zmienne są niestacjonarne, dokładniej zintegrowane w stopniu pierwszym. Następnym etapem będzie budowa modelu autoregresji wektorowej dla wszystkich czterech zmiennych i przeprowadzenie badania kointegracji. Zgodnie z hipotezą oczekiwań struktury terminowej stóp procentowych (EHT) oraz teorią niepokrytego parytetu stóp procentowych (UIP), przy założeniu racjonalnych oczekiwań, układ taki powinny wiązać trzy wektory kointegrujące. W analizach integracji i kointegracji zastosowane zostaną rozszerzony test Dickey’a-Fullera, test Philipsa-Perrona i test Kwiatkowskiego-Phillipsa-Schmidta-Shina oraz metoda kointegracji Johansena z testami śladu macierzy i maksymalnej wartości własnej. Obliczenia przeprowadzone będą w programach Gretl i EViews7.
Joanna Czerepko
Błażej Ziemann
Uniwersytet Gdański
Wykorzystanie analizy skupień do oceny wpływu profili internautów na działania e-marketingowe polskich portali internetowych
Od kilkunastu lat Internet tworzy przestrzeń publiczną, która oferuje m.in. dostęp do informacji i rozrywki, możliwość robienia zakupów, czy nawiązania kontaktów towarzyskich. Dlatego też, stał się atrakcyjnym miejscem dla prowadzenia działań marketingowych. W walce o internautów, zarządzający portalami internetowymi stale poszerzają paletę możliwości stron, budując tym samym ich atrakcyjność marketingową. Decyzje marketingowe podejmowane są m.in. na podstawie działań konkurencji, analiz dostarczanych danych przez zewnętrzne narzędzia, badań opinii publicznej oraz własnych doświadczeń i zbieranych danych.
W Polsce jednym z najpopularniejszych narzędzi badania ruchu internetowego jest Badanie Megapanel PBI/Gemius oferujące szereg informacji o odwiedzających wybrane portale internetowe. Zagregowane dane udostępniane są cyklicznie, dzięki czemu można na bieżąco weryfikować budowaną strategię marketingu internetowego. Ponadto, narzędzie jako jedno z nielicznych w Polsce umożliwia analizę konkurencji.
W referacie zostanie przeprowadzona analiza największych polskich portali internetowych ze względu na profile odwiedzających (płeć, wiek, wykształcenie) oraz podstawowe dane o ruchu internetowym (np. procentowy udział odsłon mobilnych i niemobilnych). Celem badania jest próba wyodrębnienia podzbiorów witryn internetowych o podobnych charakterze oraz podjęcie próby określenia, jakie działania z zakresu emarketingu łączą pogrupowane portale. Porównane zostaną charakterystyki otrzymanych podzbiorów z lat 2010 i 2014, co umożliwi ocenę zmian, jakie zaszły w strukturze klientów portali w badanym okresie. Na podstawie uzyskanych informacji zostanie zweryfikowana hipoteza badawcza opierająca się na założeniu, że profil internauty ma wpływ na wielkość ruchu internetowego oraz na działania marketingowe prowadzone przez portal. W badaniu zostanie zastosowana aglomeracyjna metoda analizy skupień, w efekcie której powstanie wykres hierarchicznego uporządkowania w postaci dendrogramu.
Teresa Czerwińska
Uniwersytet Warszawski
Ryzyko regulacyjne w sektorze ubezpieczeń - analiza nowej architektury instytucjonalno-regulacyjnej polityki ostrożnościowej w sektorze ubezpieczeń
Obecnie w sektorze finansowym obserwujemy prawdziwe tsunami regulacji nadzorczych, którego katalizatorem stały się niewątpliwie konsekwencje kryzysu ogólnogospodarczego. Jak dotychczas, w sektorze ubezpieczeń dominowało w zasadzie podejście mikroostrożnościowe. Instytucje ubezpieczeniowe zaliczane są do kategorii podmiotów o relatywnie niskim, w relacji do banków ryzyku systemowym. Obecnie polityka ostrożnościowa w sektorze ubezpieczeniowym koncentruje się na ograniczeniu asymetrii informacji i negatywnej selekcji oraz ograniczaniu powstawania i narastania ryzyka systemowego. Analiza instrumentarium w podejściu mikro – i makroostrożnościowym wykazuje, że w znacznej części mają one wspólną genezę, różnią się zaś kalibracją, w przypadku instrumentów makroostrożnościowych – redukcja ryzyka systemowego, zaś w przypadku mikroostrożnościowych – zapewnienie płynności i wypłacalności. Projektowane w sektorze ubezpieczeń instrumentarium makroostrożnościowe w znacznej mierze czerpie z wzorców sektora bankowego, znacznie bardziej zaawansowanego w tym zakresie. Podobnie jak w sektorze bankowym, instrumenty polityki makroostrożnościowej w sektorze ubezpieczeń koncentrują się w zasadzie w dwóch wymiarach: przestrzennym i czasowym. Główny nacisk kładziony jest na ograniczenie procykliczności oraz podwyższeniu zdolności do absorpcji potencjalnych strat przez systemowo ważnych ubezpieczycieli, a także – o ile to możliwe – „odkonglomeryzowanie” grup ubezpieczeniowych. Trudno obecnie mówić o wiarygodnych wskaźnikach efektywności projektowanych rozwiązań, bowiem brakuje, ze względów obiektywnych, wiarygodnych długofalowych badań. Jednakże, mając na uwadze relatywnie niski potencjał sektora ubezpieczeń do kreowania ryzyka systemowego, już na obecnym etapie można stwierdzić, że instrumentarium makroostrożnościowe powinno być ściśle powiązane z instrumentami polityki mikroostrożnościowej, która powinna odgrywać wiodącą rolę. Zasadne wydaje się, zwłaszcza w Polsce, rozbudowanie infrastruktury nadzorczej i regulacyjnej w zakresie polityki mikroostrożnościowej, mającej na celu ochronę beneficjentów usług ubezpieczeniowych. W tym zakresie, na co wskazuje intensyfikacja wydawania zaleceń przez KNF oraz postępowania i kary nakładane przez UOKiK, samoregulacja rynku zawiodła. Doświadczenia innych krajów, jak np. Wielkiej Brytanii, pokazują, że dobre efekty przynosi wypracowywanie rozwiązań prewencyjnych w zakresie nadzoru nad ochroną interesów konsumentów usług ubezpieczeniowych. Istotne zmiany w zakresie infrastruktury instytucjonalno-nadzorczej oraz regulacyjnej w sektorze ubezpieczeń (i nie tylko) powodują, że analiza i systematyka wypracowywanych narzędzi nastręcza pewnych trudności. Prowadzone równolegle w ramach IAIS, EIOPA oraz ERSB i FSB prace nad nowymi rozwiązaniami w zakresie instrumentarium zarówno mikro- jak i makroostrożnościwego powodują, że dynamika zmian jest duża, zaś brakuje pewnej transparentności i jednolitości. Stąd powstaje obawa o spójność ostatecznego kształtu regulacji i instrumentarium nadzorczego nie tylko w samym sektorze ubezpieczeń, ale w szerszym kontekście. W przeciwnym wypadku wygenerują one dodatkowe ryzyko – ryzyko regulacyjne.
Celem opracowania jest analiza nowych rozwiązań w zakresie kształtowania struktury instytucjonalnej i regulacyjnej sektora ubezpieczeń oraz wskazanie ryzyk związanych z dynamiką zmian w polityce ostrożnościowej i nadzorczej.
Mariusz Hamulczuk
Marcin Idzik
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie
Zgodność i predyktywność testów koniunktury bankowej z koniunkturą ogólnogospodarczą
Niesłabnące zainteresowanie badaniami koniunktury gospodarczej wynika przede wszystkim z jej pragmatyzmu. Analizy z tego zakresu sprowadzają się z jednej strony do oceny stanu bieżącej aktywności gospodarczej a drugiej strony jej celem jest jak najwcześniejsze dostarczenie sygnałów o przyszłej zmianie w tym zakresie. W celu realizacji tych zadań w praktyce stosuje kilka podejść, w tym testy koniunktury.
Celem niniejszych badań jest odpowiedź na dwa zasadnicze pytania. Po pierwsze, w jakim stopniu wyniki badań jakościowych, w postaci testów koniunktury bankowej realizowane przez TNS Polska i publikowane w Monitorze Bankowym (MB) w zakresie oceny i prognoz aktywności klientów na rynku kredytów i depozytów odzwierciedlają koniunkturę ogólnogospodarczą. Po drugie, czy i z jakim wyprzedzeniem testy koniunktury bankowej pozwalają na przewidywanie w zmianie stanu aktywności ogólnogospodarczej. W badaniach empirycznych wykorzystano grupę metod mających na celu transformacje szeregów czasowych oraz poszukiwanie związków między zmiennymi. W pierwszym przypadku były to metoda X-12-ARIMA, filtry Hodricka-Prescotta oraz standaryzacja zmiennych. W drugim przypadku zastosowano analizę korelacji wzajemnej, testy przyczynowości oraz metody wektorowej autoregresji.
Beata Jackowska
Uniwersytet Gdański
Analiza kohortowa czasu istnienia mikroprzedsiębiorstw w Gdańsku
Kondycja przedsiębiorstw, a w szczególności ich czas istnienia na rynku, jest pochodną funkcjonowania całej gospodarki narodowej. Od 2002 r. GUS prowadzi w cyklach 5-letnich reprezentacyjne badania panelowe przedsiębiorstw w Polsce, publikując m. in. roczne wskaźniki „przeżycia” przedsiębiorstw w różnych przekrojach – niestety wyniki badań nie są opracowywane w przekrojach regionalnych.
Celem badania jest prześledzenie 5-letniej historii kohorty mikroprzedsiębiorstw powstałych w Gdańsku w 2009 r. Założono, że wprowadzenie dla osób fizycznych od 31 marca 2009 r. jednego formularza rejestracji działalności gospodarczej w REGON, ZUS/KRUS oraz Urzędzie Skarbowym a także jednego formularza wyrejestrowania wpłynęło na faktyczną realizację przez pomioty ustawowego obowiązku składania wniosków o wpis i skreślenie w rejestrze REGON. Poprawa aktualności bazy REGON dotyczy zdarzeń od 2009r., z tego powodu rejestr nie powinien być wykorzystywany do badań przekrojowych, natomiast otwiera to pole do badań kohortowych.
Dane pochodzące z bazy REGON posłużyły do zbudowania empirycznej kohortowej tablicy czasu istnienia mikroprzedsiębiorstw w Gdańsku. Wykorzystano ideę badań kohortowych rozwiniętą w ramach dziedziny demografii oraz metody analizy przeżycia pozwalające na estymację rozkładu czasu upływającego od zdarzenia początkowego (rozpoczęcie działalności) do zdarzenie końcowego (zakończenie działalności).
Krzysztof Jajuga
Uniwersytet Ekonomiczny we Wrocławiu
Zarządzanie ryzykiem systemowym – wyzwania teorii i praktyki
Stabilność finansowa jest jednym z kluczowych problemów w obszarze finansów, z jakimi zmagają się decydenci w ostatnich latach. Powodowane jest to przede wszystkim zmianami w poziomie ryzyka systemowego. Główne instytucje, które podejmują decyzje w zakresie zarządzania ryzykiem systemowym, to banki centralne oraz nadzór finansowy. Problem pomiaru ryzyka systemowego, a w konsekwencji oceny stabilności finansowej, rodzi wiele wyzwań na gruncie teoretycznym i praktycznym. Zagadnienie to jest przedmiotem referatu.
W referacie omawiane są następujące zagadnienia:
- wprowadzenie terminologiczne dotyczące pojęć związanych ze stabilnością finansową;
- klasyfikacja i krytyczny przegląd narzędzi pomiaru ryzyka systemowego;
- systematyzacja działań praktycznych prowadzonych na świecie.
Kamil Jodź
Uniwersytet Przyrodniczy we Wrocławiu
Stochastyczne modelowanie umieralności w populacjach niejednorodnych
W literaturze aktuarialnej, były i są podejmowane liczne próby prognozowania długości trwania życia ludzkiego. Problematyka modelowania umieralności i trafnego prognozowania dalszego przeciętnego trwania życia jest szczególnie istotne dla firm ubezpieczeniowych oraz instytucji wypłacających świadczenia emerytalne. W klasycznych modelach umieralności takich jak model Lee-Cartera zakłada się, że liczba zgonów w badanej populacji jest zmienną losową o rozkładzie Poissona. Wystąpienie będzie dotyczyć metod modelowania intensywności zgonów, gdy liczba zgonów opisana jest mieszanką rozkładów Poissona.
Aneta Kłodzińska
Politechnika Koszalińska
Struktura terminowa stóp procentowych na rynku depozytów międzybankowych w Polsce
Celem referatu jest zbadanie związków jakie zachodzą pomiędzy stopami procentowymi depozytów międzybankowych na polskim rynku, a także określenie czy są one zgodne z założeniami teorii oczekiwań struktury terminowej. W badaniach wykorzystano dwuwymiarowy model VAR oparty na spreadach stopy procentowej oraz zmianach stopy zwrotu dla depozytów o krótszym terminie zapadalności. W analizach wykorzystano szeregi czasowe referencyjnych stóp WIBOR dla depozytów o zapadalności 3, 6, 9 i 12 miesięcy. Dla wszystkich terminów zapadalności otrzymano, że spread jest przyczyną w sensie Grangera dla zmiany stopy zwrotu z depozytów o krótszym terminie zapadalności. Otrzymane wnioski z przeprowadzonych badań są zgodne z teorią oczekiwań.
Tomasz Kopyściański
Tomasz Rólczyński
Wyższa Szkoła Bankowa we Wrocławiu
Ocena trafności prognoz dochodów jednostek samorządu powiatowego
Wprowadzony ustawą o finansach publicznych z 27 sierpnia 2009 roku (Dz. U. Nr 157, poz. 1240 z późn. zm.) obowiązek sporządzania wieloletniej prognozy finansowej (WPF) w istotny sposób zmienia charakter planowania w jednostkach samorządu terytorialnego. Opracowywana prognoza w założeniu miała stać się narzędziem umożliwiającym oszacowanie podstawowych parametrów przyszłych budżetów, a tym samym stanowić podstawę do długookresowej oceny potencjału finansowego jednostki. Obligatoryjny charakter sporządzania wieloletniej prognozy finansowej oraz ranga nadana przez rozwiązania ustawowe każe zwrócić szczególną uwagę na rolę, jaką podany dokument odgrywa w zakresie poprawy efektywności wykorzystania środków finansowych przez jednostki samorządu terytorialnego.
Celem artykułu jest analiza dochodów jednostek samorządu powiatowego ze szczególnym uwzględnieniem oceny trafności prognoz prezentowanych w ramach wieloletniej prognozy finansowej opracowanych przez poszczególne jednostki. Prowadzone w tym zakresie rozważania bazując na teoretycznych rozważaniach dotyczących roli WPF w zakresie planowania finansowego w jednostkach samorządowych, koncentrują się w głównej mierze na analizie z zastosowaniem metod statystycznych trafności prognoz dochodów jednostek samorządu powiatowego w Polsce na podstawie danych za 2013 rok.
Justyna Kujawska
Politechnika Gdańska
Czy zdrowie jest dobrem podstawowym czy luksusowym?
Celem artykułu jest ocena zależności pomiędzy wydatkami na ochronę zdrowia per capita a dochodem gospodarki w 39 krajach europejskich. Temat jest o tyle aktualny, że wydatki na zdrowie rosną w bardzo szybkim tempie. Na podstawie danych pochodzących z lat 1995 – 2012 podjęta została próba oceny czy wydatki na ochronę zdrowia są dobrem podstawowym czy dobrem luksusowym dla analizowanych gospodarek. Do oceny zależności wykorzystano estymację panelową, która poprzedzona została badaniem stacjonarności oraz kointegracji zmiennych. W badaniu uwzględniono również zależności przestrzenne. Informacje statystyczne pochodzą z bazy Banku Światowego.
Łukasz Lenart
Mateusz Pipień
Uniwersytet Ekonomiczny w Krakowie
Cechy empiryczne cyklu finansowego - Metody podpróbkowania w procesach prawie okresowo skorelowanych
Celem artykułu jest zastosowanie metod podpróbkowania w analizie cyklu finansowego. Analizie podlegają gospodarki Polski, Wielkiej Brytanii i USA, gdzie rozważa się dynamikę kredytu, aktywów, akcji i cen nieruchomości. Cechy cykli finansowego uzyskano przy zastosowaniu metod dyskretnej analizy spektralnej dla procesów prawie okresowo skorelowanych.
Maria Lisiecka
Uniwersytet Gdański
Metoda DEA - przykład zastosowania badania i ankiety do pomiaru efektywności pracowników umysłowych, których praca mierzona jest jakościowo, na przykładzie pracowników biur rachunkowych z Trójmiasta
Efektywność jest kluczowym czynnikiem decydującym o powodzeniu wielu działań w gospodarce. Efektywność pracownika jest natomiast jedną z bardziej pożądanych przez pracodawcę cech. Istnieje wiele metod pomiaru efektywności, większość z nich skupia się jednak na ilościowym charakterze pracy i ten aspekt poddaje ocenie. W odpowiedzi na poszukiwania dogodnej metody analizy efektywności pracowników, których praca ma charakter jakościowy i której pomiar powinien pozwalać na ujęcie efektywności w sposób jakościowy, udało się ustalić, iż metodą taką jest metoda DEA. W oparciu o ankietę i badanie grupy pracowników biur rachunkowych z Trójmiasta ukazany zostanie schemat analizy efektywności podobnych rodzajowo pracowników. Do konstrukcji rankingu pracowników efektywnych wykorzystana została metoda DEA. Przedstawione wnioskowanie bazuje na autorskim badaniu ankietowym opisującym ocenę własną pracy każdego badanego pracownika.
Celem analizy jest uzasadnienie wyboru metody DEA i ukazanie jej możliwości względem pomiaru efektywności pracowników biur rachunkowych, jako reprezentantów grupy pracowników umysłowych, których praca jest trudna do zmierzenia. Zagadnienie mierzenia efektywności pracowników biur rachunkowych oraz próba wskazania cech jednostek efektywnych, potencjalnie pożądanych z punktu widzenia pracodawcy, pozwoliły dodatkowo na wydzielenie cech stymulujących efektywność, pomocnych przy weryfikacji na poziomie rekrutacji.
Wnioskiem z badanego zagadnienie jest fakt, że kontrola efektywności pracowników biur rachunkowych jest możliwa w bardzo prosty sposób. Ma ona sens i jest stosunkowo łatwa do przeprowadzenia pomimo wielu trudności wynikających ze specyfiki pracy w biurze rachunkowym. Po zapoznaniu się z wynikami można zauważyć, że metoda DEA jest dobrą metodą do analizy efektywności pracowników umysłowych w skali przedsiębiorstwa lub grup pracowników.
Anna Lucińska
Uniwersytet Łódzki
Metody wyznaczania indeksu hedonicznego cen malarstwa na rynku aukcyjnym w Polsce
W czasie globalnego kryzysu finansowego obserwowane są istotne wahania cen różnych aktywów. Stanowi to jedną z najważniejszych przyczyn wzrostu zainteresowania inwestycjami alternatywnymi, np. dziełami sztuki. Literaturze światowa dotycząca inwestowania w sztukę jest dość bogata, natomiast brakuje badań młodych rynków, takich jak polski rynek sztuki.
Celem badania jest zbudowanie indeksu cen malarstwa na polskim rynku aukcyjnym z wykorzystaniem:
- siedmiu zróżnicowanych specyfikacji modelu regresji,
- dwóch różnych formuł wyznaczania indeksu, wykorzystujących oszacowane współczynniki regresji, tj. metody price characteristics oraz time dummy variable.
Parametry hedonicznego modelu regresji oszacowane zostały na podstawie próby badawczej składającej się z 2 224 zapisów aukcyjnych z lat 2007 – 2013, dotyczących 22 polskich malarzy, popularnych na rynku sztuki. Przyjęto, że miarą tej popularności jest liczba sprzedanych obrazów w badanym okresie większa, niż 50. Dane uzyskano z portali sztuki (m.in. www.artinfo.pl). Oszacowanie parametrów siedmiu modeli regresji wykazało, że istnieją pewne cechy obrazu, które wpływają na jego cenę, np. technika, dom aukcyjny, temat, powierzchnia, sygnatura, nazwisko artysty. Informacja o śmierci malarza (w obiegowej opinii wpływająca na wzrost cen jego obrazów) oraz relacja między wylicytowaną ceną i ceną wywoławczą wydają się nie mieć znaczącego wpływu na ceny obrazów. Badania dowiodły, że specyfikacja modelu regresji odgrywa istotną rolę w wyznaczaniu hedonicznego indeksu malarstwa, szczególnie w przypadku indeksów otrzymanych przy użyciu metody price characteristics. Fomuła budowy indeksu hedonicznego wydaje się mieć równie duże znaczenie. Obydwa indeksy, tj. obliczone zgodnie z formułą time dummy variable oraz characteristics price mają przebieg zgodny co do kierunku, chociaż dynamika indeksu time dummy variable jest większa.
Ewa Majerowska
Ewa Spigarska
Uniwersytet Gdański
Wycena kapitału akcyjnego zakładów ubezpieczeń - ujęcie księgowe a rynkowe
Jednym z elementów zawartych w sprawozdaniu finansowym zakładów ubezpieczeń notowanych na giełdzie papierów wartościowych jest wartość akcji wyemitowanych przez te zakłady. W praktyce okazuje się, że wartość nominalna wykazywanych akcji nie jest taka sama jak ich wartość rynkowa. Różnica ta decyduje o wartości jednostki gospodarczej jak i o sytuacji finansowej tego podmiotu.
Celem artykułu jest wskazanie, na przykładzie akcji PZU SA, jak różni się wartość tychże akcji, ujęta w wykazywanym kapitale akcyjnym, w zależności od wyboru metody wyceny rynkowej. Otrzymane wyniki pozwalają na wyznaczenie rzeczywistego poziomu rentowności zakładu w badanym okresie, odbiegającego od wykazywanych wskaźników ustalonych na podstawie sprawozdań finansowych, co jest szczególnie istotne dla interesariuszy.
Adam Marszk
Politechnika Gdańska
Zastosowanie modeli dyfuzji innowacji do analizy rynków finansowych: przykład rynku funduszy inwestycyjnych w Meksyku
Referat poświęcony będzie rynkowi funduszy inwestycyjnych w Meksyku, podzielonemu na potrzeby badania na rynek funduszy klasycznych (ang. mutual funds) oraz innowacyjnych produktów typu Exchange Traded Funds (ETFs). Celem badania było określenie roli odgrywanej przez ETFs w całości rynku oraz skali substytucji funduszy klasycznych (zwłaszcza funduszy indeksowych) przez produkty innowacyjne. Do oceny zmiany rozmiarów oraz udziału funduszy ETFs w całości rynku funduszy inwestycyjnych wykorzystano modele dyfuzji innowacji wzrostu logistycznego, umożliwiające określenie przybliżonej trajektorii dyfuzji, opisanej za pomocą krzywej sigmoidalnej. W pierwszej części badania użyte zostały statystyki opisowe. Następnie, za pomocą modeli wzrostu logistycznego, określono przebieg i dynamikę zmian udziału ETFs w całości rynku funduszy inwestycyjnych. Uzyskane wyniki pozwalają na wyciągnięcie wniosków o rosnącej roli ETFs i na prognozowanie dalszego wzrostu ich udziału, kosztem funduszy klasycznych. Ścieżka wzrostu udziału ETFs jest zbliżona do teoretycznej linii logistycznej, co świadczyć może o zasadności stosowania modeli wzrostu logistycznego do analizy dyfuzji innowacji w tej części rynków finansowych.
Aleksandra Matuszewska-Janica
Katedra Ekonometrii i Statystyki
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie
Analiza ekonometryczna wynagrodzeń kobiet i mężczyzn w polskim sektorze edukacyjnym
Na różnice w wynagrodzeniach kobiet i mężczyzn wpływa wiele czynników, które dotyczą zarówno cech indywidualnych pracownika (np. wiek, staż pracy, poziom i rodzaj wykształcenia, wykonywany zawód) jak i samego przedsiębiorstwa, w którym ten pracownik jest zatrudniony oraz jego otoczenia (np. branża, wielkość firmy, sytuacja gospodarcza w regionie, dostęp do opieki zewnętrznej dla dzieci). Sektor edukacyjny charakteryzuje się względnie małymi różnicami w płacach, które są implikowane płcią (w 2010 roku różnica ta wynosiła 0,9% na korzyść mężczyzn, podczas gdy w skali całego kraju kształtowała się na poziomie 4,5%). Stąd nasunęły się pytania: czy istnieją różnice w czynnikach oddziałujących na poziom wynagrodzeń kobiet i mężczyzn w sektorze edukacyjnym oraz czy odbiegają one od tych zdiagnozowanych dla całej próby, obejmującej wszystkie branże. Badanie zostało przeprowadzone z wykorzystaniem danych jednostkowych pochodzących z Badania Struktury Wynagrodzeń (Structure of Earnings Survey) przeprowadzonego przez Eurostat w roku 2006. Jest to badanie realizowane regularnie co 4 lata (począwszy od 2002 roku), a dane pochodzą z rejestrów przedsiębiorstw, które są respondentami. Jako narzędzie analityczne wykorzystano jednorównaniowe modele ekonometryczne. Do grupy zmiennych objaśniających, które określają czynniki oddziałujące na wysokość płac zakwalifikowano: wiek pracownika, poziom jego wykształcenia, wymiar czasu pracy (cały etat/część etatu), zawód, wielkość przedsiębiorstwa mierzona liczbą zatrudnionych pracowników, status własnościowy przedsiębiorstwa (państwowe/prywatne).
Kamila Migdał-Najman
Krzysztof Najman
Uniwersytet Gdański
Ocena wpływu wartości stałej Minkowskiego na możliwość identyfikacji wartości nietypowych w zbiorach danych o wysokim wymiarze
Badając zróżnicowanie jednostek w przestrzeni wielowymiarowej najczęściej stosuje się miary odległości oparte na ogólnej metryce potęgowej. Metryka ta wraz ze wzrostem wymiaru przestrzeni może zmieniać swoje własności z punktu widzenia możliwości jej zastosowania w analizie skupień. W artykule przedstawiona zostanie analiza tych zmian i ich wpływ na różne aspekty analizy skupień, takich jak: możliwość wyróżnienia i oceny struktury grupowej oraz identyfikację wartości nietypowych (outliers). Zaprezentowane zostaną wyniki badań symulacyjnych opartych na klasycznych danych metrycznych dla wygenerowanych zbiorów o znanej strukturze grupowej i zróżnicowanej liczbie wymiarów.
Joanicjusz Nazarko
Politechnika Białostocka
Metodyka badawcza gospodarczego foresightu regionalnego
W referacie Autor przedstawił własną, oryginalną definicję gospodarczego foresightu regionalnego oraz opracowaną przez siebie metodologię i instrumentarium badawcze tego typu projektów foresight. W literaturze przedmiotu, mimo posługiwania się terminem "foresight gospodarczy", brakuje jego jednoznacznej definicji. Autor proponuje powiązać je z pojęciem informacji gospodarczej. W takim ujęciu, foresight gospodarczy można rozpatrywać poprzez określenie jego funkcji informacyjnej jako odnoszącej się głównie do informacji gospodarczej. Wyznacznikiem regionalności foresightu jest natomiast jego wymiar przestrzenny, odnoszący się do procesów zachodzących lub mających wpływ na rozwój danego układu regionalnego. Dotychczasowe doświadczenia badawcze autora sugerują potrzebę rozwinięcia znanych z literatury modeli procesów foresightowych i opisanie procesu foresightu w ośmiu zasadniczych fazach. W ujęciu syntetycznym wyodrębniono następujące fazy badawcze procesu foresightu: (i) wstępną, (ii) skanującą, (iii) rekrutacyjną, (iv) generowania wiedzy, (v) antycypacji, (vi) działania, (vii) ewaluacyjną oraz (viii) wznawiającą. Sferę spajającą poszczególne fazy cyklu foresightowego tworzą: zarządzanie, monitoring i komunikacja. W referacie dokonano również przeglądu i klasyfikacji metod i technik badawczych foresightu. Wskazano na powiązanie konkretnych klas metod z poszczególnymi fazami procesu foresightowego. Rozważania zilustrowano przykładem implementacji opracowanej metodyki badawczej do rzeczywistego studium foresightowego.
Dagmara Nikulin
Politechnika Gdańska
Praca nierejestrowana w Polsce - analiza skali i dynamiki zjawiska
Zatrudnieni w tzw. „szarej gospodarce” stanowią obecnie według różnych źródeł od 1 do 15% osób aktywnych zawodowo w Polsce. Zagadnienie pracy nierejestrowanej cieszy się sporym zainteresowaniem zarówno wśród opinii publicznej, jak i badaczy rynku pracy. Jednocześnie analizy dotyczące badania rozmiarów i dynamiki szarej strefy są najczęściej obarczone dużym błędem, co jest głównie spowodowane brakiem lub ograniczeniami w dostępie do danych. Bieżący artykuł ma charakter teoretyczno – empiryczny. W pierwszej kolejności przedstawiony zostanie zarys problemu zatrudnienia nierejestrowanego oraz przegląd dotychczasowych metod, wykorzystywanych w celu oszacowania jego rozmiarów. W części empirycznej zastosowana zostanie metoda oszacowania zasobu osób pracujących w gospodarce nierejestrowanej z wykorzystaniem badań rynku pracy. Szacunki zatrudnienia w „szarej strefie” oparte zostaną na różnicy pomiędzy rozmiarami bezrobocia rejestrowanego oraz bezrobocia według BAEL i dotyczyć będą lat 2010-2014. Otrzymane wyniki skonfrontowane zostaną z badaniem modułowym Głównego Urzędu Statystycznego. Celem artykułu jest przedstawienie znaczenia oraz skali zjawiska pracy nierejestrowanej. Prezentowane szacunki o charakterze wstępnym mają na celu rozwinięcie doskonalszych metod służących analizie problemu zatrudnienia nierejestrowanego.
Edward Nowak
Uniwersytet Ekonomiczny we Wrocławiu
Metody ilościowe w rachunku kosztów przedsiębiorstwa
Rachunek kosztów jest procesem ustalania kosztów prowadzenia działalności przez jednostki gospodarcze. Na proces ten składa się ciąg uporządkowanych i logicznie ze sobą powiązanych czynności związanych z przetwarzaniem danych o kosztach. Przetwarzanie danych w systemie rachunku kosztów odbywa się według przyjętego modelu, który obejmuje zespół zasad i procedur zgodnie z którymi dokonuje się transformacja informacji w celu przystosowania do specyficznych potrzeb użytkowników.
Celem referatu jest ukazanie możliwości zastosowania wybranych metod ilościowych w rachunku kosztów na etapach planowania, pomiaru i analizy kosztów. Zasadnicza teza artykułu zawiera się w stwierdzeniu, że zastosowanie metod ilościowych w procesie rachunku kosztów przyczynia się do uzyskania informacji, które lepiej odzwierciedlają koszty różnych zakresów działalności i obiektów odniesienia kosztów. Ma to szczególne znaczenie przy dokonywaniu ocen i podejmowaniu decyzji na podstawie informacji o kosztach.
Metody ilościowe mogą znaleźć zastosowanie na różnych etapach rachunku kosztów. Analiza regresji i korelacji może być wykorzystana do doboru kluczy rozliczeniowych kosztów. Metody wielowymiarowej analizy statystycznej można zastosować do klasyfikacji obiektów odniesienia kosztów i doboru obiektów kalkulacji kosztów. Modelowanie ekonometryczne może znaleźć zastosowanie w ustalaniu kosztów standardowych. Testy statystyczne są przydatne w ocenie odchyleń kosztów poniesionych do kosztów standardowych.
Maciej Nowak
Tadeusz Trzaskalik
Uniwersytet Ekonomiczny w Katowicach
Podejście quasi-hierarchiczne w dyskretnym wielokryterialnym programowaniu dynamicznym
W pracy rozpatrujemy wieloetapowy, wielokryterialny dyskretny proces decyzyjny w warunkach ryzyka. Wykorzystujemy dyskretne, stochastyczne podejście programowania dynamicznego, oparte na zasadzie optymalności Bellmana. Zakładamy, że decydent określa quasi-hierarchię rozpatrywanych kryteriów, co oznacza, że jest on w stanie określić, w jakim stopniu można pogorszyć optymalną wartość oczekiwaną kryterium o wyższym priorytecie w celu poprawy wartości oczekiwanej kryterium o priorytecie niższym. Proces dojścia do rozwiązania końcowego może mieć charakter interaktywny. Na podstawie obserwacji uzyskiwanych kolejno rozwiązań decydent może zmieniać poziomy aspiracji w stosunku do rozpatrywanych kryteriów, dochodząc do najbardziej satysfakcjonującego go rozwiązania. Sposób działania metody zilustrowano przykładem opartym na danych umownych.
Sabina Nowak
Uniwersytet Gdański
Joanna Olbryś
Politechnika Białostocka
Zależności korelacyjne w szeregach stóp zwrotu spółek notowanych na Giełdzie Papierów Wartościowych w Warszawie S.A.
Konsekwencją obecności zakłóceń w procesach transakcyjnych mogą być różne prawidłowości empiryczne dotyczące m.in. własności szeregów stóp zwrotu spółek giełdowych. Możemy wśród nich wyróżnić pewne zależności korelacyjne, w tym efekty autokorelacji, korelacji przekrojowych oraz korelacji przekrojowych międzyokresowych. Celem pracy była analiza teoretyczno – empiryczna wymienionych związków korelacyjnych na polskim rynku kapitałowym. Badanie objęło grupę 53 spółek notowanych na Giełdzie Papierów Wartościowych w Warszawie S.A. w okresie od stycznia 2005 r. do grudnia 2014 r., w podziale na 3 podgrupy: spółek dużych, średnich i małych. Dodatkowym celem pracy była analiza wrażliwości otrzymanych wyników na wybór okresu badania, z uwzględnieniem całej próby statystycznej oraz trzech jednakowo licznych podokresów: przed kryzysem, kryzys, po kryzysie. Okres kryzysu finansowego na giełdzie warszawskiej został ustalony w sposób formalny jako przedział czasowy czerwiec 2007 – luty 2009. Dokonano weryfikacji hipotez badawczych zakładających persystencję zależności korelacyjnych w podokresach. W tym celu testowano równość macierzy korelacji przekrojowych oraz przekrojowych międzyokresowych w grupach spółek, z wykorzystaniem własnej modyfikacji testu Larntza–Perlmana [1985]. Wyniki przeprowadzonego badania wskazują na występowanie istotnych współczynników korelacji przekrojowej w szeregach stóp zwrotu dla par spółek małych i dużych oraz małych i średnich we wszystkich analizowanych podokresach. Dodatkowo, korelacje te okazały się silniejsze w okresie kryzysu. Nie potwierdzono natomiast występowania istotnych korelacji przekrojowych międzyokresowych z jednodniowym opóźnieniem w przypadku stóp zwrotu spółek małych w stosunku do spółek dużych oraz średnich.
Mariola Piłatowska
Uniwersytet Mikołaja Kopernika w Toruniu
Aneta Włodarczyk
Marcin Zawada
Politechnika Częstochowska
Środowiskowa krzywa Kuznetza w państwach UE - podjeście progowej kointegracji
This paper aims to look at the long-run equilibrium relationship between CO2 emissions and economic growth (EKC hypothesis) in an asymmetric framework using the non-linear threshold cointegration. To test the robustness of the results the additional explanatory variables (time trend and/or energy consumption) are added to the EKC model. The empirical study is carried out for the European Union countries divided into three groups depending on a level of knowledge advanced economies in order to explain the differences in the dynamic linkage between CO2 emissions and economic growth. We have found that the EKC hypothesis is valid for all high-level and some middle-level knowledge advanced economies. The addition of energy consumption or time trend to the EKC model has affected the results in terms of the presence of threshold cointegration with an asymmetric adjustment process. These results suggest that the EKC model should be estimated using an approach accounting for asymmetric adjustment.
Teresa Plenikowska
Beata Jackowska
Uniwersytet Gdański
Ocena prawdopodobieństwa zgonu osób starszych w pierwszych latach pobytu w domu pomocy społecznej
Jednym z przejawów demograficznego procesu starzenia się społeczeństwa jest rosnący odsetek osób starszych potrzebujących stałej opieki z powodu ograniczonej sprawności. Atomizacja społeczeństwa, zmiana struktury wieku ludności oraz zmiany modelu rodziny przyczyniają się do zmniejszenia roli opieki o charakterze nieformalnym (sprawowanej najczęściej przez rodzinę) na rzecz opieki instytucjonalnej. W Polsce największe znaczenie w sprawowaniu opieki instytucjonalnej mają domy pomocy społecznej (DPS), w których osoby starsze wymagające całodobowej opieki przebywają zwykle do końca życia.
Badanie przeprowadzone wśród osób starszych przebywających w Domu Pomocy Społecznej w Gdyni w latach 1980-2010 pokazało, że newralgicznym okresem w opiece nad osobami starszymi są pierwsze lata pobytu. W okresie pierwszych czterech lat umiera prawie połowa przyjętych osób. Celem badania było oszacowanie prawdopodobieństwa zgonu osób przebywających w DPS w pierwszych latach pobytu z uwzględnieniem zarówno wieku jaki i płci. W badaniu wykorzystano metody regresji logistycznej. W celu wykazania hipotezy, że stan zdrowia osób przyjętych do DPS różni się od stanu zdrowia ludności ogółem, uzyskaną ocenę prawdopodobieństwa zgonu w subpopulacji pensjonariuszy DPS porównano z prawdopodobieństwem zgonu osób w wieku 60 lat i więcej w populacji ogółem.
Grzegorz Rządkowski
Iwona Gażewska
Katarzyna Sawińska
Politechnika Warszawska
Zastosowania funkcji logistycznej oraz funkcji Gompertza w ekonomii i zarządzaniu
Równaniem logistycznym nazywamy równanie różniczkowe I rzędu
u'(t) = c1u(umax – u), u(0) – u0 >0,
gdzie t oznacza czas lub nakłady, u = u(t) jest nieznaną funkcją, c1, umax są stałymi. Stała umax nazywa się poziomem nasycenia. Krzywa całkowa u = u(t) powyższego równania, spełniająca warunek 0 < u(t) < umax nazywa się funkcją logistyczną. Wiele zjawisk ekonomicznych, także tych związanych z zarządzaniem przebiega według powyższego równania i może być nim modelowana. Główną ideą niniejszej pracy jest metoda polegająca na znajdowaniu, w szeregu czasowym pewnych charakterystycznych punktów, które odpowiadają zerom pochodnych funkcji logistycznej. Jednym z tych punktów jest punkt odpowiadający punktowi przegięcia (tj. zeru u'') krzywej logistycznej. Co możemy zrobić jednak, gdy szereg czasowy nie jest wystarczająco długi ale spodziewamy się, że badane zjawisko przebiega według krzywej logistycznej? Metody statystyczne szacowania parametrów funkcji logistycznej oparte, na przykład, na nieliniowej metodzie najmniejszych kwadratów mogą być zawodne, ponieważ funkcje logistyczne, których wartości poziomów nasycenia różnią się w istotny sposób mogą dawać niewiele się od siebie różniące wartości błędów w danych punktach. Wydaje się, że w takich przypadkach można byłoby poszukiwać, w szeregu czasowym, punktów odpowiadających zerom kolejnych pochodnych funkcji logistycznej. Przedstawiliśmy użyteczność naszej metody poprzez przykłady pochodzące z dziedziny ekonomii i zarządzania. Jednym z rozpatrywanych przykładów jest nasycenie telefonami komórkowymi w różnych państwach. Wykazaliśmy, że gdy zjawisko jest w swojej wczesnej fazie rozwoju, można określić jego poziom nasycenia. Uważamy, że opisana metoda powinna być wykorzystywana razem z innymi znanymi podejściami jak na przykład nieliniowa metoda najmniejszych kwadratów. W naszych badaniach stosujemy podobną metodę dla innych krzywych kształtu S wykorzystanych w ekonomii i zarządzaniu takich jak krzywa Gompertza.
Anna Sączewska-Piotrowska
Uniwersytet Ekonomiczny w Katowicach
Identyfikacja determinant bogactwa dochodowego z zastosowaniem modelu logitowego
Badania dotyczące rozkładów dochodów skupiają się przeważnie na nierównościach występujących w rozkładach oraz na gospodarstwach domowych dysponujących najniższymi dochodami, czyli na gospodarstwach ubogich. Przeciwstawnym do ubóstwa jest bogactwo. Sfera bogactwa dochodowego nie jest rozpoznana w literaturze, a badania mają jedynie charakter fragmentaryczny i dotyczą głównie zasięgu tego zjawiska. Zasięg bogactwa w różnych grupach gospodarstw domowych nie jest jednak taki sam, ponieważ różne czynniki zwiększają lub zmniejszają szanse na wystąpienie tego zjawiska.
Celem artykułu jest identyfikacja czynników objaśniających bogactwo gospodarstw domowych. W analizie zastosowano model logitowy, w którym rolę zmiennej zależnej pełniła zmienna binarna - przynależność do sfery bogactwa - przyjmująca wartość jeden, gdy gospodarstwo domowe należy do sfery bogactwa oraz wartość zero, gdy gospodarstwo domowe nie należy do sfery bogactwa. Wśród potencjalnych czynników uwzględniono zarówno cechy głowy gospodarstwa domowego (np. płeć, wiek, wykształcenie), jak i cechy samego gospodarstwa (np. miejsce zamieszkania, liczba osób). Oszacowany model poddano weryfikacji statystycznej polegającej na badaniu statystycznej istotności parametrów oraz na określeniu stopnia dopasowania modelu do danych empirycznych.
Anna Seiffert
Gesundheitsforen Leipzig GmbH
Wykorzystanie systemów klasyfikacyjnych w celu doskonalenia przepływu informacji o kosztach w ochronie zdrowia
Zasoby danych o kosztach w systemie ochrony zdrowia determinują możliwość ewaluacji efektywności poszczególnych świadczeń zdrowotnych oraz ocenę stanu zdrowia populacji, a tym samym prowadzenie racjonalnej polityki zdrowotnej. Dla płatnika w systemie informacja ekonomiczno-finansowa stanowi podstawę między innymi do podejmowania decyzji alokacyjnych, rozliczania świadczeń zdrowotnych oraz koordynacji przedsięwzięć mających na celu wpłynięcie na zachowania pacjentów. Pomimo szeregu działań dążących do zmniejszenia luki informacyjnej w sektorze ochrony zdrowia, przetwarzanie dostępnych danych kosztowych w informacje zarządcze nieraz sprawia trudności.
Jednym z instrumentów pozwalającym na przetworzenie i wykorzystywanie dużych ilości danych diagnostycznych oraz kosztowych są systemy klasyfikacyjne. Celem opracowania jest przedstawienie stosowanych w praktyce metod klasyfikacji danych w ochronie zdrowia (takich jak apteczne grupy kosztowe, czy jednorodne grupy pacjentów) oraz wskazanie wybranych ograniczeń systemu i ich konsekwencji na przykładzie korektorów ryzyka wykorzystywanych w niemieckim systemie finansowania ochrony zdrowia.
Karolina Sobczak
Uniwersytet Ekonomiczny w Poznaniu
Monetarne kryteria konwergencji nominalnej w modelu nowej szkoły keynesowskiej
Celem artykułu jest zbadanie, jak na politykę pieniężną wpływa respektowanie przez władze monetarne kryteriów konwergencji nominalnej w zakresie stopy procentowej oraz poziomu inflacji. Kryteria zbieżności: monetarne, fiskalne oraz kryterium walutowe zostały wprowadzone przez Traktat o Unii Europejskiej zawarty w Maastricht w 1992 roku. Kryteria monetarne opierają się na wartościach referencyjnych dotyczących stopy inflacji oraz nominalnej stopy procentowej i konstruowane są na podstawie wskaźników ekonomicznych trzech gospodarek Unii Europejskiej o najbardziej stabilnym poziomie cen.
Polityka pieniężna państwa w modelach DSGE, do których zaliczają się też modele nowej szkoły keynesowskiej, opisana jest poprzez regułę stopy procentowej typu Taylora. Zgodnie z tą regułą kształtowanie się stopy procentowej uzależnione jest od reakcji banku centralnego na wahania pewnych zmiennych, zazwyczaj jest to poziom inflacji oraz luki produkcyjnej. W modelach nowej szkoły keynesowskiej tak opisana polityka nie jest neutralna, to znaczy, że wielkości nominalne jak, stopa procentowa oraz poziom inflacji wpływają na realną sferę gospodarki, w tym poziom produkcji.
W opracowaniu przeprowadzimy analizę polityki monetarnej pod kątem respektowania poszczególnych kryteriów monetarnych zbieżności nominalnej. Porównamy ze sobą reakcje zmiennych modelu na politykę pieniężną opisaną poprzez regułę stopy procentowej uwzględniającą jedno z kryteriów, oba kryteria łącznie oraz żadne z nich. Wskażemy wnioski oraz ewentualne możliwości aplikacyjne płynące z tych badań, zwłaszcza w odniesieniu do władz monetarnych. Przeprowadzimy również dyskusję nad znaczeniem prowadzenia polityki pieniężnej w dany sposób, w kontekście innych celów polityki gospodarczej. Nasze rozważanie oprzemy na małym modelu nowej szkoły keynesowskiej, funkcjach odpowiedzi zmiennych na impuls oraz estymacji modelu dla danych gospodarki polskiej.
Ewelina Sokołowska
Uniwersytet Gdański
Jerzy Wiśniewski
Uniwersytet Mikołaja Kopernika w Toruniu
Prognozowanie cen w gospodarce komunalnej
Ceny w gospodarce komunalnej nie kształtują się w wyniku wolnej gry rynkowej na konkurencyjnym rynku. Należą zasadniczo to kategorii cen regulowanych przez odpowiednie organy administracji.
Przedmiotem pracy będą ceny wody i ścieków w województwie pomorskim na tle Polski. Zaprezentowane zostaną ekonometryczne modele cen wody i ścieków w województwie pomorskim w porównaniu do modeli dla Polski. Oszacowane zostaną prognozy cen na lata 2015 - 2020 w województwie pomorskim, w porównaniu z analogicznymi prognozami cen wody i ścieków w Polsce. W skali Polski zaprezentowane zostaną prognozy cen średnich w ujęciu wojewódzkim, cen minimalnych oraz maksymalnych.
Grzegorz Szafrański
Narodowy Bank Polski
Uniwersytet Łódzki
Równomierne i relatywne zmiany cen - analiza czynnikowa komponentów CPI
Za pomocą metod analizy czynnikowej opisujemy kształtowanie się inflacji w polskiej gospodarce po 2002 roku. Na podstawie idei Reisa i Watsona [Reis, R., Watson M.W., (2010) Relative Goods' Prices, Pure Inflation, and the Phillips Correlation, American Economic Journal: Macroeconomics, American Economic Association, vol. 2(3), 128-57] dekomponujemy zmienność ponad 160 komponentów CPI w układzie miesięcznym na część wspólną (systematyczną) i idiosynkratyczną, oraz na zmiany równomierne (tzw. bezwzględna stopa inflacji) i zmiany relatywne. Pokazujemy, jak ważną rolę w wahaniach agregatowego wskaźnika CPI odgrywają relatywne zmiany cen zarówno pojedynczych komponentów CPI, jak i większych grup dóbr oraz jakie to ma znaczenie dla występowania okresów niskiej i wysokiej inflacji. Jak wynika z przeprowadzonych badań, relatywne zmiany cen o charakterze systematycznym poprzedzają zmiany bezwzględnej stopy inflacji i lepiej prognozują zmiany wskaźnika CPI w horyzoncie 12 miesięcy niż inne miary inflacji bazowej.
Karolina Tura
Politechnika Gdańska
Kierunki rozwoju systemów prognozowania inflacji w bankach centralnych wdrażających strategię bezpośredniego celu inflacyjnego
Strategia bezpośredniego celu inflacyjnego (BCI) została wdrożona po raz pierwszy w 1990 r. w Nowej Zelandii. Do 2013 r. w ślad za RBZ poszło kolejne 26 banków centralnych (BC), w tym Narodowy Bank Polski (NBP). Jednym z niekwestionowanych twórców tej idei jest L.E.O. Svennson . W przedstawieniu tego reżimu w 1996 r. uwzględnił on trzy główne elementy:
L.E.O. Svensson przeanalizował wpływ prognozy inflacji, jako celu pośredniego polityki monetarnej, na realizację celu inflacyjnego. Udowodnił, między innymi, iż udostępnienie opinii publicznej nie tylko jej wyników, ale i wszystkich dokumentów z nią związanych, włączając w to specyfikację modelu, opis etapów systemu prognostycznego oraz metodologię konstrukcji prognozy, zdecydowanie zwiększa efektywność prowadzonej polityki pieniężnej. Podmiotem konstruującym prognozę inflacji musi być wówczas BC (aby mieć wpływ na jej kształtowanie) oraz powinna zostać zapewniona pełna przejrzystość w zakresie stosowanych przez niego prognoz i modeli. Prognoza inflacji BC wdrażającego strategię BCI stanowi jedną z głównych przesłanek do podejmowania decyzji odnośnie stóp procentowych przez Komitety Monetarne. Od „typowych” prognoz gospodarczy różni ją zastosowane założenie głównej stopy procentowej BC (powiązane ze stosowaną procedurą decyzyjną), relatywnie duży udział opinii ekspertów w jej tworzeniu, funkcja celu pośredniego polityki monetarnej oraz rola jaką pełni ona w kształtowaniu oczekiwań inflacyjnych podmiotów gospodarczych. Cechy te definiują prognozę inflacji bardziej jako narzędzie BC i podkreślają subiektywizm w jej tworzeniu. Obecnie, na 27. BC stosujących strategię BCI wszystkie publikują prognozę inflacji. Prognoza inflacji jest wypadkową całego systemu analityczno prognostycznego, a sam system prognostyczny inflacji w BC oparty został o specyficzne cechy dostosowane do realizacji strategii BCI.
Celem artykułu jest przedstawienie kierunków ewolucji systemów prognozowania inflacji w BC wdrażających strategię BCI w dwóch obszarach:
Teza artykułu brzmi: Ogólna budowa systemów prognozowania inflacji w BC wdrażających strategię BCI zmierza w kierunku zastosowania jednego modelu głównego typu DSGE oraz coraz większej ilości modeli pomocniczych i satelitarnych. Równocześnie wzrasta udział ekspertów na wszystkich etapach procesu prognostycznego.
Artykuł oparty został o analizę porównawczą dokumentów, opracowań oraz specyfikacji modeli z BC wdrażających strategię BCI. Badanie obejmuje lata 1993-2014. Główne wnioski z badania potwierdzają tezę pracy.
Katarzyna Walerysiak-Grzechowska
Uniwersytet Łódzki
Analiza głównych cech oczekiwań inflacyjnych konsumentów indywidualnych w Polsce w latach 2004-2014
Oczekiwania inflacyjne stoją u podstaw wielu decyzji ekonomicznych podejmowanych zarówno na szczeblu indywidualnym, jak i krajowym. Są jednym z istotnych czynników wpływających na proces inflacji i warunkują podejmowanie decyzji odnośnie konsumpcji, oszczędności, czy inwestycji. Pomiar oczekiwań, co do przyszłej dynamiki cen wśród podmiotów ekonomicznych jest kluczowym zagadnieniem dla władz monetarnych. Zwłaszcza tych stosujących strategię bezpośredniego celu inflacyjnego. Sukces polityki pieniężnej, w dużej mierze zależy od zidentyfikowania odpowiedniego modelu formułowania oczekiwań inflacyjnych (adaptacyjny, racjonalny), charakterystycznego dla podmiotów mających największy wpływ na przebieg procesów rynkowych. Cechy oczekiwań określanych przez podmioty ekonomiczne wpływają bowiem na społeczny koszt prowadzonej polityki pieniężnej. W opracowaniu pokazano kształtowanie się i specyfikę oczekiwań inflacyjnych (kwantyfikowanych na podstawie jakościowych danych ankietowych NBP) konsumentów indywidualnych w Polsce w latach 2004-2014, a także zaprezentowano wyniki empirycznej analizy podstawowych charakterystyk jakimi powinny odznaczać się przewidywania racjonalne, a więc: nieobciążoność i ortogonalność (efektywność makroekonomiczna). Poruszono również problem antycypacyjności oczekiwań inflacyjnych i wpływu celu inflacyjnego banku centralnego na analizowaną zmienną.
Stanisław Wieteska
Uniwersytet Łódzki
Wypadki na przejazdach kolejowych jako element ryzyka w obowiązkowym ubezpieczeniu odpowiedzialności cywilnej posiadaczy pojazdów mechanicznych w Polsce
Wzmożony ruch drogowy powoduje wzrost zagrożenia na przejazdach drogowo-kolejowych. Corocznie w Polsce na skrzyżowaniach drogowo-kolejowych dochodzi do wielu wypadków, w których są zabici i ranni. W artykule przedstawiamy skalę ilościową i przyczyny wypadków na tych skrzyżowaniach. Omówione zostały dyrektywy unijne dotyczące bezpieczeństwa na drogach kolejowych, a także podstawowe akty prawne wydane w Polsce. Obliczone zostały wskaźniki bezpieczeństwa na przejazdach kolejowych. W części ubezpieczeniowej zwrócono uwagę na szkody majątkowe i szkody osobowe, które pokrywane są z ubezpieczenia obowiązkowego odpowiedzialności cywilnej.
Kamil Wilak
Uniwersytet Ekonomiczny w Poznaniu
Modelowanie trendu stopy bezrobocia w Badaniu Aktywności Ekonomicznej Ludności
Badanie Aktywności Ekonomicznej Ludności (BAEL) jest kwartalnym badaniem panelowym z rotacyjnym schematem doboru próby. Próba kwartalna składa się z czterech prób elementarnych, co kwartał wymieniana jest jedna z nich. Nowo wylosowana próba elementarna badana jest według zasady: 2 miesiące w badaniu, 2 miesiące przerwy, znów dwa miesiące w badaniu i wymiana na nową próbę elementarną. W związku z powyższym schematem doboru próby, parametry populacji w kolejnych kwartałach szacowane są po części na podstawie tych samych jednostek, stąd błędy estymacji mogą być ze sobą skorelowane.
Metody dekompozycji szeregów czasowych stosowane w urzędach statystycznych, takie jak X12-ARIMA, TRAMO-SEATS, X13-ARIMA-SEATS, nie uwzględniają korelacji błędów oszacowania.
W wyniku zastosowania tych metod do dekompozycji charakterystyk szacowanych na podstawie BAEL, można otrzymać trend obarczony wahaniami, charakterystycznymi dla procesów autoregresyjnych. W przypadku małych domen, gdzie błędy oszacowania są stosunkowo duże, wahania te mogą być znaczne. Pfeffermann (1997) do dekompozycji stopy bezrobocia zaproponował wykorzystanie strukturalnych modeli szeregów czasowych (Structural Time Series Models – STM), których parametry estymowane są za pomocą filtru Kalmana. W celu uwzględninia korelacji błędów, obok składnika trendu i sezonowości wprowadzono składnik opisany za pomocą modelu ARMA.
Celem niniejszej pracy jest oszacowanie trendu stopy bezrobocia wg BAEL w domenach określonych przez województwo, płeć i wiek. Do dekompozycji stopy bezrobocia zastosowano metodę zaproponowaną przez Pfeffermanna (1997) oraz metodę X12-ARIMA. Wyniki badań pokazują, że uwzględnienie autokorelacji błędów powoduje, że oszacowanie trendu jest bardziej wygładzone, charakteryzuje się mniejszymi wahaniami.
Jacek Winiarski
Uniwersytet Gdański
Metodyka budowy komputerowego systemu zarządzania ryzykiem w publicznej uczelni wyższej – studium przypadku
Celem artykułu będzie dokonanie oceny wybranych sposobów budowy narzędzia informatycznego służącego do prowadzenia procesu zarządzania ryzykiem w publicznej uczelni wyższej.
Badaniu zostaną poddane kanały przepływu informacji z perspektywy struktury organizacyjnej uczelni wyższej. Zidentyfikowane będą możliwości powstania zdarzeń niefunkcjonalnych takich jak np: powtórzenia, zbędne kolektory danych, ślepe ścieżki, itp. W celu dokonania usprawnień kanałów informacyjnych będzie zaproponowany model systemu informacyjnego. Następnie zostaną wykonane symulacje umożliwiające przeprowadzenie oceny dopuszczalnych wariantów rozwiązań. Artykuł zakończy propozycja zbioru rekomendacji, które powinny zostać spełniony by projektowany komputerowy system zarządzania ryzykiem w publicznej uczelni wyższej spełniał wymagania użyteczności na poziomie maksymalnym.
Dorota Witkowska
Uniwersytet Łódzki
Krzysztof Kompa
Szkoła Główna Gospodarstwa Wiejskiego w Warszawie
Czy otwarte fundusze emerytalne były nieefektywne?
Reforma systemu emerytalnego wprowadzona w życie w 1999r. spowodowała zmianę systemu ze zdefiniowanego świadczenia na zdefiniowaną składkę oraz uzupełniła istniejący system repartycyjny o filar kapitałowy i wprowadziła dobrowolny filar ubezpieczeń prywatnych. Jednakże nowy system emerytalny okazał się nie do końca „wydolny”, a działalność otwartych funduszy emerytalnych (OFE) stała się przedmiotem rozpętanej w mediach krytyki. Skutkiem czego w 2011 i 2014 rząd wprowadził istotne zmiany sytemu emerytalnego, ingerując między innymi w strukturę portfeli OFE.
Celem artykułu jest porównanie efektywności inwestycji realizowanych przez OFE i ZUS w latach 2000-2013.
Liwiusz Wojciechowski
Uniwersytet Ekonomiczny w Krakowie
Migration processes in EU Member States after 2004. Panel data approach
Ewa Wycinka
Uniwersytet Gdański
Modelowanie czasu do zaprzestania spłat kredytu lub wcześniejszej spłaty jako ryzyka konkurencyjneg
Ryzyko kredytowe jest jednym z najważniejszych rodzajów ryzyka zagrażających instytucjom finansowym. W ocenie ryzyka kredytowego ważne jest nie tylko to czy kredyt zostanie spłacony w całości ale również czas jaki upłynie od udzielenia kredytu do zaprzestania spłat rat kredytowych. Im większa liczba spłaconych rat, tym mniejsza jest strata kredytodawcy z tytułu udzielonego kredytu. Dodatkowym problemem przy analizie ryzyka kredytowego są kredyty przedwcześnie spłacone. Dla instytucji finansowej istotna jest identyfikacja cech charakteryzujących kredytobiorców narażonych na zaprzestanie spłat oraz tych skłonnych do wcześniejszej spłaty całości zobowiązania. Przy tak postawionym problemie zastosowanie w modelowaniu ryzyka kredytowego znajduje metoda analizy przeżycia (historii zdarzeń).
Celem artykułu jest porównanie właściwości estymatora Kaplana-Meiera oraz estymatora subdystrybuanty (ang. cumulative incidence function lub subdistribution) w modelowaniu ryzyka kredytowego. Analizę empiryczną przeprowadzono na próbie 60-miesięcznych pożyczek udzielonych osobom fizycznym przez jedną z instytucji finansowych w Polsce. Każda pożyczka była obserwowana przez okres pierwszych 24 miesięcy lub do momentu przedwczesnej całkowitej spłaty lub zaprzestania spłat (ang. default). Zaprzestanie spłaty zostało zdefiniowane jako co najmniej 90-dniowe przeterminowanie spłaty raty.
Adam Zaremba
Andrzej Nowak
Uniwersytet Ekonomiczny w Poznaniu
Preferencja skośności na globalnych rynkach akcji
Zgodnie z teorią perspektywy, aktywa o dodatniej skośności rozkładu stóp zwrotu powinny być obracane przy zastosowaniu premii w porównaniu z aktywami o ujemnej skośności rozkładu stóp zwrotu. Zgodnie z założeniami autorów, to samo powinno dotyczyć także indeksów krajowych na zintegrowanych rynkach finansowych. Niniejsze opracowanie bada zależności między stopami zwrotu na poziomie państw a skośnością rozkładu stóp zwrotu. Między stopami zwrotu a skośnością obserwuje się ujemną zależność. Jest ona szczególnie widoczna w przypadku dużych, płynnych i rozwiniętych rynków akcji Badanie przeprowadzono na próbie badawczej złożonej z 78 krajowych rynków akcji dla okresu od 1999 do 2014 r., z wykorzystaniem metod sortowania i testów przekrojowych.
Jerzy Zemke
Uniwersytet Gdański
Pomiar ryzyka procesów decyzyjnych w zróżnicowanym typologicznie otoczeniu uwarunkowań
Pomiar zmiennych jakościowych jest problemem wszystkich bez wyjątku badaczy. Nie dotyczy tylko tej grupy zawodowej, jest pytaniem, z odpowiedzią na które, nie radzi sobie nawet większość badaczy. Brak informacji o wartości istotnego czynnika decyzyjnego wstrzymuje procesy decyzyjne, bądź kieruje je na margines nie prowadzący do wytyczonego celu. W rezultacie stanowi to przyczynę odpływu środków finansowych z obszaru projektów inwestycyjnych, opieki społecznej, ochrony środowiska, obrony narodowej itd.. Celem prezentacji jest przekonanie i uzasadnienie, że zmierzyć można bez wyjątku wszystko. Tezy tej dowodzę prezentując istotę pomiaru zagadnień niepewności, ryzyka oraz wartości informacji procesów decyzyjnych. W realizacji celu wystąpienia oraz dowodu tezy pracy, zostaną wykorzystane klasyczne metody: budowy scenariuszy przy wykorzystaniu symulacji Monte Carlo, analiza Bayesa w ocenie zmian oszacowanej wartości informacji pod wpływem zmian czynników mających wpływ na jej wartość oraz wykorzystanie ekonometrycznych modeli liniowych w szacowaniu wartości ilościowych zmiennych.