Metody heurystyczne

Ekonometria

Strona główna | Ekonometria | Statystyka | Prognozowanie i symulacje | Formularz kontaktowy

 

 

 

Metody heurystyczne stosowane sa przeważnie w prognozowaniu jak też w procesach podejmowania decyzji. Nazywane są również metodami twórczego rozwiązywania problemów. Ich nazwa pochodzi od greckiego słowa „heusisco”, co oznacza umiejętność znajdywania, poszukiwania. Posługiwanie się tymi metodami oznacza odkrywanie nowych faktów i relacji między innymi faktami, jak też dochodzenie do nowych prawd.

Aby bardziej uwidocznić ewolucje metod heurystycznych, przedstawiam schemat pomocniczy.

 

 

 

Jedną z pochodnych metod heurystycznych jest prognozowanie heurystyczne. Jest to przewidywanie nowych obrazów rzeczywistości, które nie zawsze da się opisać za pomocą analizy przeszłości. Często tez nazywa się je intuicyjnymi gdyż opierają się one na zdrowym rozsądku i wyobraźni człowieka.

Sednem metod heurystycznych jest dochodzenie do nowych rozwiązań poprzez formułowanie hipotezy. Wykorzystują one opinie specjalistów oparte tak na intuicji jak i doświadczeniu, do stworzenia odpowiedniej prognozy.

Połączenie w prognozowaniu heurystycznym świadomego wymyślania przyszłości oraz nieświadomego porządkowania i kojarzenia informacji dotyczących zajmującego nas fragmentu rzeczywistości, pokazuje nam możliwy obraz przyszłości, niekoniecznie będący tym, co dotychczas sprawdziliśmy. Myślenie systematyczne to akt świadomego umysłu zaś myślenie intuicyjne to dar naszej podświadomości. Intuicja i przeczucie mogą doprowadzić do powiązania ze sobą wielu odległych faktów.

 

 

 

Metody prognostyczne wykorzystywane są do takich celów prognostycznych jak:

 

·        wskazywanie daty zajścia interesującego nas zdarzenia;

·        określenie poziomu badanego zjawiska;

·        określenie punktów zwrotnych w przebiegu zmiennych;

·        określenie prawdopodobieństwa występowania danego zdarzenia

·        określenie natężenia występowania nowych zjawisk

·        tworzenie ocen faktów determinujących przyszłość;

·        ocena przydatności utworzonych modeli do prognozowania;

 

 

KRYTERIA WYBORU EKSPERTÓW

 

Jak wiadomo metody heurystyczne sa oparte na opinii ekspertów. Dlatego tez bardzo ważnym elementem jest ich właściwy dobór. Wspomnianym wyżej ekspertem jest osoba, która została zaproszona do udziału w badaniu za względu na swoja osobowość, wiedzę oraz szerokie horyzonty myśleniowe. Trafność sądów grupowych jest o wiele lepsza niż indywidualnych toteż bardzo często eksperci łączą się w grupy. Szeroka i wyjątkowa wiedza w określonej dziedzinie jednego eksperta może rekompensować niewiedzę i ignorancję innych ekspertów, mających obszerna wiedzę w innych dziedzinach. Jeżeli uczestnicy badania zostaną skrupulatnie dobrani będą się oni wymieniać swoja wiedza i nawzajem uzupełniać. Ma to duże znaczenie w metodzie delfickiej, w której dąży się do uzyskania zgodnej opinii ekspertów.

Wiadomo tez, że grupie o wiele łatwiej jest podjąć ryzyko niż pojedynczemu specjaliście. Ma to istotne znaczenie w prognozowaniu. Sformułowana prognoza może stanowić dla prognosty ryzyko, zwłaszcza, gdy jest odmienna od dotychczas przyjętych przekonań na temat przeszłości. Może ona podważać, bowiem profesjonalizm prognosty. W procesie prognozowania bierze udział od kilku do kilkuset ekspertów, a o ich wyborze decyduje kilka czynników:

 

Ø     grupa ekspertów winna być uniwersalna, złożona z osob wszechstronnych, zainteresowanych przyszłością, a także zawierać reprezentantów specjalistycznych dziedzin nauki i praktyki;

Ø     grupa winna być liczna, aby reprezentować rożne poglądy;

Ø     Wybrane osoby powinny niezależnie myśleć i posiadać niezależną wizje przyszłości.

 

Istnieją jednak rozbieżności, co do wielkości grupy, jak i jej struktury. Twierdzi się, że grypy niejednorodne np. ze względu na reprezentowane specjalności, są bardziej trafne w swych opiniach niż grypy jednorodne. Jakość opinii ekspertów wzrasta proporcjonalnie do wzrostu ich specjalności. Opinie ekspertów są opracowywane przez organizatorów badania, którzy w celu dobrego ustalenia prognozy stosują najczęściej regułę największej wiarygodności. Prognoza jest wówczas opinia najczęstszą, wyznaczoną ze zbioru opinii utworzonego po odrzuceniu opinii skrajnych.

Jakość wszystkich prognoz wyznaczonych na podstawie metod heurystycznych może być określaną przez ekspertów indywidualnych bądź przez wykorzystanie błędów ex post.

 

  Analizy statystyczne

 

Błąd prognozy ex post może być wykorzystywany do określania dopuszczalności prognozy danej zmiennej pod takimi warunkami:

 

Ø     nowo formułowane przesłanki potwierdzają zasadność przesłanek przyjętych do wyznaczenia poprzedniej prognozy;

Ø     do ustalenia nowej prognozy wykorzystuje się tę samą metodę co poprzednio;

Ø     przedział weryfikacji poprzedniej prognozy jest taki sam jak zadany horyzont nowej prognozy.

 

Jeżeli nowa prognoza jest ustalona na jeden moment lub okres, to stosujemy wzór:

 

 

gdzie:  – realizacja zmiennej Y w czasie t > n

          - prognoza zmiennej Y na czasie t > n otrzymana z danej metody.

 

W innych przypadkach możemy zastosować tzw. średni względny błąd prognozy ex post   

 

 

 

BURZA MÓZGÓW

 

Najbardziej znaną odmianą metod heurystycznych jest burza mózgów tzw. brainstorming. Za twórcę metody uważany jest A. F. Osborn, który nie tylko rozdzielił fazę oceniania od fazy tworzenia pomysłów, ale również wprowadził ich zbiorowe poszukiwanie przez tzw. sesje. Analizy statystyczne.Dowiódł, ze rutyna i nawyki maja niekorzystny wpływ na nasze twórcze efekty. Gdy nowo wymyślony pomysł zostanie poddany natychmiastowej ocenie, dalsze poszukiwania pomysłów zostają odrzucone, jak tez idee, które nie mieszczą się w przyjętych schematach myślowych. Jednakże pomysł, który początkowo wydawał się niemożliwy do zrealizowania zostaje zaakceptowany i poddany właściwemu badaniu, w celu jego zastosowania.

        

 

Burza mózgów oparta jest na dwóch podstawowych wymaganiach metodycznych. Są to:

 

Ø     niekrytykowanie nowych pomysłów;

Ø     stymulowanie jak największej ich liczby.

 

Powstrzymanie krytyki w fazie tworzenia pomysłów i przesuniecie jej w czasie do fazy oceny jest bardzo znaczące dla efektywności pracy twórczej. Nie tylko pobudza ono do generowania nowych pomysłów, ale też tworzy możliwości podawania idei niekonwencjonalnych, oryginalnych, oryginalnych zarazem „dziwnych”.

         Aby nie odbiegać za bardzo od codzienności i zwykłej normalności, na początku podawane są zawsze znane, tradycyjne i zwykle rozwiązania. Z czasem ujawni się coraz więcej nowych i coraz bardziej oryginalnych propozycji. Szacuje się, że w krótkim czasie eksperci wymyśla jak największą liczbę nowatorskich pomysłów.

 

         Oprócz podstawowych wymagań metodycznych, które już zaprezentowałam, istnieje szereg warunków i zaleceń, dzięki którym eksperci mogą:

 

a)     zgłaszać wszystkie pomysły. Pozwala to przedstawić problem z rożnych punktów widzenia, co prowadzi do tego, że każdy pogląd nawet najbardziej nierealny, może stworzyć ideę realną i akceptowana, rozwiązującą dany problem;

b)    łączyć i doskonalić pomysły. Stwarza to warunki do tworzenia dużej liczby kombinacji z poddanych pomysłów. Takie modyfikacje zwiększają prawdopodobieństwo znalezienia optymalnego rozwiązania;

c)     Zgłaszać własne sugestie bez analizowania cudzych pomysłów i czekania na swoja kolej wypowiedzenia się;

d)    prezentować pomysły jasno i zwięzłe. Klarowność i przejrzystość sprawia, iż inni uczestnicy bodźce do nowych poszukiwań;

e)     wykorzystywać i rozwijać pomysły pozostałych uczestników. Oznacza to, ze nie ma wyłączności praw autorskich. Poddane pomysły sa własnością całej grupy.

 

Jednak, aby prezentowana metoda była skuteczna i możliwa do zrealizowania, jej uczestnicy winni są wypełniać wszystkie wyżej wymienione warunki. Oprócz tego badanie pomysłu musi mieć zapewniony odpowiedni przebieg, a grupy ekspertów musza być skrupulatnie dobrane, aby efektownie wypełnić swoja misję.

 

 Prognozowanie i symulacje

 

Stosowanie metody burzy mózgów przy poszukiwaniu pomysłów i rozwiązań odbywa się w trzy – stopniowym etapie. Obejmuje on:

 

Ø     przygotowanie;

Ø     tworzenie;

Ø     ocenianie.

 

W zakres etapu przygotowania wchodzą: sprecyzowanie problemu, zebranie odpowiednich informacji o badanym problemie oraz skrupulatny wybór grupy ekspertów. Zręczne sprecyzowanie problemu badawczego doprowadza do tego, że proces twórczy zostaje ukierunkowany, a szukanie potrzebnych rozwiązań jest o wiele prostsze. Przyczynia się to również do zwiększenia ilości i poprawy jakości problemów zgłaszanych przez grupę. Zebranie informacji potrzebne jest organizatorom danego badania do bliższego sprecyzowania i ewentualnego skorygowania problemu. Zgromadzone informacje nie są z reguły udostępniane uczestnikom badania.

W wyniku podziału fazy tworzenia i fazy oceniania, wytworzyły się dwie grupy ekspertów:

 

Ø     zespół twórczy – jego celem jest tylko poszukiwanie, tworzenie problemu; w skład zespołu wchodzą specjaliści rożnych dziedzin;

Ø     zespół oceniający – ten z kolei zajmuje się ocenianiem i analizowaniem wytworzonych pomysłów, a potem opracowuje odpowiedni wariant rozwiązania i dopasowuje go do badanego problemu; w zespole znajdują się tylko specjaliści z zakresu badanego problemu.

 

Etap tworzenia obejmuje przedstawienie problemu oraz przypomnienie przez twórców badania o zasadach metody burzy mózgów. Poddany pomysł jest notowany tak, by był widoczny dla wszystkich uczestników. Kończąc sesję poszukiwań, każdemu z  przedstawionych pomysłów nadany zostaje określony numer identyfikacyjny. Ma to ułatwić tworzenie etapów rozwiązań w następnej fazie – etapie oceniania. Czasami potrzebna jest tzw. uzupełniająca sesja tworzenia, która wzbogaca listę pomysłów o nowe, powstałe po refleksji rozwiązania.

W kolejnym etapie, etapie oceniania, zawierają się: ustalenie kryterium oceny, analiza i ocena pomysłów jak tez przedstawienie finalnego pomysłu rozwiązania problemu. Wszystkie zaprezentowane pomysły są oceniane, a następnie poddane analizowaniu i wartościowaniu całościowo oraz fragmentarycznie.Prognozowanie i symulacje.Celem tejże analizy jest stworzenie z najbardziej odpowiednich fragmentów pomysłu syntetycznego, najbardziej właściwego i trafnego sposobu rozwiązania całości.

Badanie problemu za pomocą metody burzy mózgów jest efektywnym sposobem na znalezienie dobrych rozwiązań w krótkim czasie. Najlepsze efekty możemy uzyskać rozwiązując problemy proste, wręcz banalne, dające się łatwo określić. Koszty pracy grupy ekspertów sa niskie, a rezultaty bardzo owocne.

 

METODA DELFICKA

 

 

Nazwa metody wywodzi się od nazwy starożytnego miasta Delfy. W mieście tym znajdowała się świątynia Apollona, w której kapłanki zwane Pytiami przepowiadały ludziom przyszłość. Mówi się, że za pierwowzór metody delfickiej przyjmuje się praktykę stosowana na zgromadzeniach kardynałów w Watykanie. Jej celem było doprowadzenie do konsensusu, mimo pojawiania się przeciwstawnych opinii.

Po raz pierwszy owa metoda opisana została przez N. Dalkey’a i O. Helmer’a w roku 1963. Zastosowanie swe znalazła rok później w badaniach prognostycznych prowadzonych przez T. J. Gordon’a i     O. Helmer’a.

Konserwatywne sposoby tworzenia prognoz, korzystające z pomocy ekspertów sa raczej drogie. Charakteryzują się dominacja czyjejś indywidualności, dużą presją grupy wobec uczestników spotkania, brakiem ich odpowiedzialności oraz niechęcią do zmiany stanowiska wcześniej przyjętego. Czasami pojawia się tez problem „przeciążenia” zbędnymi, niepotrzebnymi informacjami, które nie są związane z tematem.

Metoda delficka pozbawiona jest wad związanych z grupowym podejmowaniem decyzji. Polega ona na badaniu opinii ekspertów dotyczących prawdopodobieństwa lub czasu zajścia przyszłych zajęć. Uzyskana prognoza przejawia się jako zgodny osąd na określony temat, czyli związany z prawdopodobieństwem i czasem zajścia przyszłych zdarzeń. Metoda cechuje się:

 

Ø     niezależnością opinii ekspertów;

Ø     anonimowością stawianych sądów;

Ø     wieloetapowością postępowania;

Ø     uzgadnianiem i sumowaniem opinii kompetentnych osób.

 

 Prognozowanie i symulacja

 

Niezależność wypowiadanych sądów uzyskiwana jest poprzez izolowanie od siebie ekspertów podczas prowadzonego badania. Analizy statystyczne.Uczestnicy nie wiedza, kto oprócz nich jest jeszcze w grypie wybranych ekspertów.

Anonimowość badanych opinii zapewnia się przez użycie ankiety, która umożliwia każdemu uczestnikowi wypowiadanie się, niekoniecznie pozytywnie na zadany problem. Jeżeli eksperci są zaznajomieni z opinii innych ekspertów to opinie te są również anonimowe.

Wieloetapowość postępowania przy metodzie delfickiej jest efektem utworzenia następujących po sobie ankiet, które kierowane są do ekspertów. Miedzy ankietami wplatane są informacje i zbiorcze opinie ekspertów, które działają na zasadzie sprzężenia zwrotnego. Prowadzi to do tego, że eksperci koncentrują się na przedmiocie badania, a nie na osiąganiu własnych celów i postulowaniu własnych argumentów.

W odróżnieniu od burzy mózgów, badanie metoda delficka prowadzi się korespondencyjnie. Wynikiem tego są ściśle pisemne określenie zakresów zbieżności i rozbieżności oraz streszczenia argumentów podtrzymujących alternatywne punkt widzenia. Przeważnie za prognozę uważa się zgodną opinię większości ekspertów. W zależności od tego, czy odpowiedzi maja charakter ilościowy, czy jakościowy, stopień zgodności sądów dotyczących przyszłości jest ustalany odmiennie.

Oprócz zalet metoda ta posiada tez wady, do których możemy zaliczyć:

 

Ø     konieczność zorganizowania dużej grupy osób, która będzie opracowywała ankiety i odpowiedzi uczestników;

Ø     długi czas trwania badania, ( gdy przeprowadzane sa kolejne rundy, badanie może trwać nawet kilka miesięcy);

Ø     brak możliwości bezpośredniej wymiany poglądów miedzy uczestnikami badania;

Ø     małe zaangażowanie ekspertów ze względu na nie wprowadzenie ich w szczegóły badania;

Ø     trudności w uwzględnianiu wzajemnych powiązań pomiędzy czynnikami determinującymi prognozowane zjawiska;

Ø     trudności związane z doborem właściwych osób do grupy ekspertow; Zadania ,projekty

Ø     trudności w zbudowaniu oprawnej ankiety, która dawałaby jednoznaczne odpowiedzi;

Ø     wykorzystywanie metody tylko do długookresowych prognoz; prowadzi to do odkładania w czasie ich weryfikacji.

 

Dokonując badania metodą delficką wykorzystuje się wiele starannie dobranych i opracowanych ankiet, wzbogaconych przez wykorzystanie zsumowanych informacji oraz informacyjnych sprzężeń zwrotnych, powstających na podstawie kolejno po sobie następujących wypowiedzi.

 

 

 

 

 

Charakter i jakość badanych prognoz w metodzie delfickiej zależy przede wszystkim od właściwego ustalenia problemu. Tematy badań mogą być opracowane przez specjalnie powołana do tego celu grupę ekspertów, bądź tez eksperci mogą być poproszeni tylko o poddanie sugestii. Innym sposobem jest podanie przez twórców badania określonej liczby hipotez, co, do których eksperci wypowiadają swoje zdanie, których wyłaniają przedmiot badań.

Następnie organizatorzy badania przygotowują ankietę. Pytania zawarte w ankietach musza być tak sformułowane by nie pozostawiały dwuznacznych odpowiedzi. Ponadto musza być niezależne od siebie ( realizacja treści jednego pytania nie może mieć wpływu na realizacje treści kolejnych). Wskazane jest również ograniczenie się do najbardziej istotnych znaczących pytań, tak, by zawęzić listę ankietowa do 25 pytań.

Czasami wprowadzane są również ankiety próbne po to, by sprawdzić poprawności zbioru pytań i ich poszczególne sformułowanie.

Uczestnicy badania otrzymują ostateczną ankietę, którą następnie przesyła się do ekspertów droga pocztową. Zakłada się,ze cześć listów pozostanie bez odpowiedzi. Kolejnym krokiem jest opracowanie przez organizatorów odpowiedzi i przedstawienie ich w postaci miar przeciętnych. Aby ustalić, czy eksperci byli zgodni w swych opiniach organizatorzy posługują się miarami zmienności oraz miarami siły związku.

Jeżeli po zbadaniu powyższych miar zgoda została osiągnięta, badanie ulega zakończeniu, a eksperci przedstawiają finalny wynik. W przypadku, gdy wśród uczestników nie nastąpiła zgoda, organizatorzy przygotowują, a następnie rozsyłają kolejna ankietę. Prognozowanie i symulacje.Ankieta ta oprócz nowych pytań zawiera tez zbiorcze wyniki z poprzedniej ankiety. Eksperci maja dodatkowo podać opinię dla każdego ze zdarzeń ( mogą podać nowe opinie lub powołać się na wcześniej udzieloną odpowiedz).

Jeżeli opinia eksperta przekroczy granice dolnego lub górnego kwartyla, to jego osąd musi być uzasadniony. Analizy statystyczne Pozwala to na pokazanie innym uczestnikom, że istnieją czynniki, które nie zostały przez nich wcześniej uwzględnione oraz fakty niebrane pod uwagę. Odpowiedzi są ponownie statystycznie szacowane, a następnie ustala się listę argumentów.

Metoda delficka prowadzi do tego, że przechodzi się do grupy większościowej. Od eksperta, który zajmuje stanowisko odmienne niż reszta grupy wymaga się wytłumaczenia i uzasadnienie postępowania. Zadania ,projektyW ten sposób wyodrębnia się ekstremistów, czyli osoby, które nie zmieniają swych opinii, pozostają konserwatywne. Powtórzenie powoduje, że zakres rozbieżności opinii zawęża się i doprowadza do uzgodnionej opinii większości ekspertów.

Metoda ta może być dodatkowo przeprowadzana z wykorzystaniem sieci komputerowej, wykluczając tym samym drogę korespondencyjną. Przyczynia się to do znacznego skrócenia czasu otrzymywania odpowiedzi od uczestników badania i dodatkowo przyspiesza przedstawienie wyników badania.

Niezmiernie ważną sprawą w badaniu problemu metodą delficką jest analiza uzyskanych opinii ekspertów. Analiza ta jest podstawą tworzenia ostatecznych wyników przeprowadzanych badań.

Odpowiedzi uczestników badania, które zawierają się w wypełnionej przez nich ankiecie są z reguły pomiarami na skali nominalnej lub porządkowej. Obydwie skale przeznaczone są do badania cech jakościowych. Analizując skalę nominalną, obserwacji podlegają rożne kategorie cechy jakościowej. Pozwala to na sklasyfikowanie obiektów ze względu na wyróżnione warianty. Pomiar przeprowadzony na skali porządkowej sprowadza się do rangowania. Jest to tzw. podporządkowanie według kolejności wariantów zmiennej, które zostały wyróżnione w danym badaniu. Najczęściej korzysta się z tzw. rangowania ścisłego, właściwego dla niewielkiej liczby wariantów, w którym każdemu z k rozpatrywanych wariantów przypisuje się jedną z liczb naturalnych od 1 do k, będącą miarą ważności danego wariantu.

Jeżeli odpowiedzi udzielane przez ekspertów wyrażone są liczbowo, mamy do czynienia ze skalą przedziałową (interwałową) lub ilorazową. Czasami dla ułatwienia zaleca się przejście do skali porządkowej, co nadaje zakresom zmienności wariant na skali porządkowej. Zakres wykorzystywanych metod jest uzależniony od charakteru pomiaru.

 

 

 

Podstawą analizy opinii ekspertów jest zestawienie wyników ankiet. Może to mieć formę tabelki, jaka została przedstawiona poniżej.

 

 

 

 Xij jest tu symbolem oznaczającym j – ą kategorię ( j = 1,…,k) cechy mierzonej na skali nominalnej wybrana przez i – tego eksperta (i = 1,…n). W przypadku skali porządkowej oznacza rangę nadana j – emu wariantowi odpowiedzi udzielonej przez i – tego eksperta.

 

Analizując informacje, które znajdują się w tabeli zestawienia wyników:

 

Ø     wyodrębniamy jednorodne grupy ekspertów o podobnych poglądach, w sytuacji, gdy następuje wyraźna rozbieżność opinii;

Ø     wykrywamy przyczyny zdyferencjonowania opinii poprzez określenie charakterów osobistych na udzielenie odpowiedzi;

Ø     oceniamy stopień zgodności sadów ekspertów;

Ø     określamy wspólny pogląd grypy.

Opracowując wyniki ankiety, wyznaczamy miary położenia oraz ocenę zgodności opinii dla każdego pytania oddzielnie. Ocenę można wyznaczyć też całościowo. Dla określenia wspólnego poglądu w jednorodnej grupie ekspertów stosuje się zazwyczaj modalną i medianę.

Modalna jest najczęściej występującym wariantem w odpowiedziach ekspertów.Prognozowanie i symulacje. Mediana zaś to kategoria bądź wartość jakiejś cechy dzielącej zbiorowość odpowiedzi na dwie równoznaczne części.Zadania ,projekty

Miary zmienności sa bardzo pomocne w określaniu stopnia zgodności opinii ekspertów dla poszczególnych pytań. Do cech badanych na skali nominalnej można zastosować tzw. współczynnik dyspersji względnej klasyfikacji.

 

 Metody prognozowania

 

   gdzie:   k – liczba kategorii wyróżnionych w r – tym pytaniu;

             frj – częstość występowania j – tej kategorii w r – tym pytaniu.

 

 

Współczynnik dyspersji względnej klasyfikacji zawiera się w przedziale [0, 1]; im jego wartość jest niższa, tym zgodność opinii ekspertów jest lepsza.

Aby określić przeciętny stopień zgodności poglądów wszystkich ekspertów – stosując skalę porządkową – można zastosować współczynnik konkordancji Kendalla i Smitha.

 

 

 

gdzie: n – liczba ekspertów;

            k – liczba wariantów;

 

zaś S jest wyrażone wzorem:

 

 

 

Współczynnik konkordancji zawiera się w przedziale (0, 1]. Jego wysoka wartość świadczy o tym, że opinie ekspertów są bardzo zgodne. Do oceny istotności współczynnika konkordancji służy, tzw. statystyka chi – kwadrat o k minus (-) 1 stopniach swobody. Jej wartość wyznacza się z poniższego wzoru:

 

 

Jeżeli wartość statystyki chi – kwadrat przekracza wartość krytyczną, którą możemy odczytać z tablic rozkładu chi – kwadrat dla złożonego poziomu istotności i k-1 stopni swobody, świadczy to o tym, że zbieżność opinii ekspertów nie jest przypadkowa. Stwierdza się wówczas, że zespól specjalistów jest kompetentny.

Gdy opinie ekspertów wyrażone są w sposób liczbowy, są wiec pomiarami na skali liczbowej lub ilorazowej, do oceny opinii stosuje się tzw. rozstęp międzykwartylowy. Wyraża się go wzorem:

 

 

 

gdzie:  Q1 – kwartyl dolny

            Q3 – kwartyl górny

 

Dodatkowo, jeżeli spełniona jest nierówność   6.7, to świadczy to o zgodnych sądach ekspertów, co do przyszłości. Rozstęp międzykwartylowy nie przekracza ustalonej przez organizatorów wartości krytycznej. Im mniejsza jest wartość rozstępu, tym pełniejszy i trwalsza jest zgoda poglądów osiągnięta przez ekspertów.

Czasami używa się również oceny odległości odpowiedzi poszczególnych ankietowanych, którzy rozpatrywani sa w wielowymiarowej przestrzeni opinii.

 

 

METODA WPŁYWÓW KRZYŻOWYCH

 

 

W analizach systemowych podstawowe znaczenie ma badanie interakcji, czyli współzależności miedzy elementami – zdarzeniami i zjawiskami – systemu lub miedzy elementami otoczenia. W metodzie wpływów krzyżowych bierze się pod uwagę jedynie zdarzenia łączne. Natomiast oddziaływanie zdarzeń całkowicie zawartych uwzględnia się tylko raz.

Po raz pierwszy badanie interakcji w ujęciu prognostycznym przeprowadził N. Dalkey i O. Helmer, opisanej już wcześniej metody delfickiej. Analiza interakcji przyczyniła się do wytworzenia rożnych metod pokrewnych. Analizy statystyczne Ostatecznie metodę analizy sformułował S. Enzer, wykorzystując do tego macierz krzyżową interakcji (cross – impact).Prognozowanie i symulacje.

Metoda wpływów krzyżowych nazywana jest również metodą wzajemnych oddziaływań. Pozwala ona na stwierdzenie przeciętnego prawdopodobieństwa zajścia oraz terminu realizacji każdego ze zdarzeń             w zbiorze zdarzeń współzależnych, współzależnych uwzględnieniem rożnych możliwych kolejności zdarzeń i ich występowania bądź niewystępowania w zbiorze. Zwykle w badaniu występuje w powiązaniu z metodą delficką, ponieważ aby ustalić niektóre elementy metody wzajemnych oddziaływań potrzebna jest wcześniejsza analiza delficka. Rezultaty uzyskane z metody delfickiej zaprezentowane są w postaci macierzy oddziaływań. Takie powiązania sprawiają, że metoda wpływów krzyżowych uważana jest za najbardziej złożoną i skomplikowaną metodę.Zadania ,projekty

Celem metody jest określenie końcowych prawdopodobieństw poszczególnych zdarzeń na poziomie prawdopodobieństw przeciętnych. Uwzględnia się ty również skumulowany wpływ wszystkich innych zdarzeń zbioru.

Dokonując badania wzajemnych oddziaływań miedzy poszczególnymi zdarzeniami, bierzemy pod uwagę:

 

Ø     kierunek oddziaływań

o       stymulacyjny – nasilający;

o       inhibicyjny – osłabiający;

o       neutralny – brak oddziaływania;

Ø     intensywność, czyli natężenie wpływu w ustalonej skali;

Ø     czas, po upływie, którego ukazuje się wpływ rozważanego zdarzenia na zdarzenia współzależne.

 

Wartość prawdopodobieństw końcowych tworzy się w wyniku przekształceń statystycznych. Prawdopodobieństwo pi‘ określa się jako funkcję:

 

 

 

gdzie:   pi – prawdopodobieństwo wystąpienia zdarzenia ei przed   zrealizowaniem się zdarzenia em;

            C – charakter oddziaływania zdarzenia em na zdarzenie ei;

            N – natężenie oddziaływania zdarzenia em na zdarzenie ei;

            tm – chwila wystąpienia zdarzenia em;

            t – chwila należąca do przeszłości, dla której wyznacza się prawdopodobieństwo wystąpienia zdarzenia ei;

 

         Wartości pi‘ sa monotoniczne pod względem czasu i natężenia oddziaływań. Im zależności są silniejsze, a my głębiej sięgamy w przyszłość, tym zależność pi‘/pi będzie szybciej wskazywała tendencję malejącą w przypadku powiązań inhibicyjnych i wzrastającą przy powiązaniach stymulujących.

 

Funkcja f jest kwadratowa względem pi, dlatego jej wzór wygląda następująco:

 

Analiza danych

 

 0 < a <1, dla oddziaływań o charakterze inhibicyjnym;

-1 < a <0, dla oddziaływań o charakterze stymulacyjnym;

        a =1, dla oddziaływań o charakterze neutralnym.

 

Parametr a jest uzależniony od charakteru i natężenia oddziaływania oraz od względnej skali czasu. Określa się go w sposób:

 

 

 

gdzie:  k – przybiera wartości -1, 0, 1, stosownie do charakteru oddziaływania zdarzeń;

               tm, t, N – oznaczenia jak w powyższym wzorze.

 

Końcowa postać wzoru, według którego oblicza się końcowe prawdopodobieństwo wystąpienia zdarzenia ei, wygląda następująco:

 

 

 

Analizując problem za pomocą metody wpływów krzyżowych musimy pokonać cztery, sprzężone ze sobą etapy. Są to:

 

Ø     sformułowanie problemu;

Ø     wybór przyszłych zdarzeń;

Ø     budowa modelu wpływów krzyzowych;

Ø     interpretacja wyników;

 

Etap sformułowania problemu polega na określeniu przedmiotu i horyzontu czasowego prognozy. Do badania wybieramy takie zdarzenia, które są istotne ze względu na badany problem oraz rozpoznajemy interakcje miedzy nimi zachodzące. Z reguły wybiera się zdarzenia o dużym prawdopodobieństwie wystąpienia. Wyborem zdarzeń mogą zajmować się również eksperci, ale wówczas korzysta się z metody delfickiej i następnie przechodzi do analizy wpływów krzyżowych.

Kolejnym etapem jest budowa modelu wpływów krzyżowych. Aby zapewnić sobie poprawność i zgodność modelu, wykonuje się tutaj następujące kroki:

 

1.     Określenie par zdarzeń wzajemnie zależnych.

2.     Oszacowanie początkowych prawdopodobieństw wystąpienia oraz terminów wystąpienia każdego zdarzenia (pomoc opinii ekspertów).

3.     Określenie oddziaływań pomiędzy parami zdarzeń, uwzględniając sposób, sile interakcji i okres występowania.

4.     Skonstruowanie macierzy wzajemnych oddziaływań.

  

 Prognozowanie gospodarcze 

 

W polach macierzy przedstawia się skutki wystąpienia danego zdarzenia, zaś skutki niewystapienia zdarzenia można zapisać w macierzy dodatkowej, utworzonej właśnie w tym celu. Nazwa macierzy będzie wówczas brzmiała – macierz wzajemnych oddziaływań typu niedokonanego. Liczby od 1 – 9 oznaczają natężenie oddziaływań. Zdarza się tez, że ta skala zastąpiona jest skala prawdopodobieństw warunkowych. Znak „+” oznacza stymulujący charakter oddziaływań, „-„ inhibicyjny, a kreski – brak jakiegokolwiek oddziaływania. Prognozowanie i symulacje.

       5. Odwzorowanie mechanizmu przyszłych wzajemnych oddziaływań zdarzeń. Analizy statystyczne Rozwiązanie modelu otrzymuje się przez systematyczne rozważanie możliwych wpływów krzyżowych miedzy zdarzeniami. Stosowane są do tego odpowiednie procedury stymulacyjne oraz analityczne.Zadania ,projekty.W przypadku budowania modelu wpływów krzyżowych najpierw wybiera się te zdarzenia, które można najwcześniej zrealizować. Następnie, korzystając z zastosowania generatora liczb losowych i macierzy wzajemnych oddziaływań koryguje się początkowe prawdopodobieństwa pi.

Proces kontynuuje się aż do momenty wykończenia wszystkich zdarzeń. Musimy jednak pamiętać, aby zachować kolejność zachodzenia poszczególnych zdarzeń. Aby uzyskane wyniki były w miarę wiarygodne przeprowadza się kilkanaście bądź kilkadziesiąt takich właśnie przebiegów. Kolejnym krokiem jest uśrednienie się wartości prawdopodobieństw końcowych pi’ otrzymanych w poszczególnych próbach, oddzielnie dla każdego z trzech wariantów.

Ostateczne wyniki stanowią prawdopodobieństwa możliwych scenariuszy przyszłości, jak tez zmodyfikowane prawdopodobieństwa wystąpienia zdarzeń. Otrzymane wyniki podlegają analizie ekspertów, którzy porównują je z własną wizją jutrzejszego dnia i świata.

 

 

METODA ANKIETOWA

 

 

Ostatnią z prezentowanych przeze mnie metod heurystycznych, jest metoda ankietowa, która cieszy się coraz większym uznaniem. Głównym elementem odróżniającym tę metodę od wczesniej przedstawionych jest brak grupy ekspertów. W tym przypadku występują respondenci, czyli losowo wybrane osoby. Są nimi zwykli ludzie wykonujący najrozmaitsze profesje, posiadający rożne wykształcenie.

Badanie opinii za pomocą ankiet służy przede wszystkim do wykrywania prawidłowości zachowań podmiotów rynkowych pod kątem potrzeb decyzyjnych przyszłego rozwoju rynku.

Materiał niezbędny do przeprowadzenia ankiety jest zbierany przez gromadzenie odpowiedzi na odpowiednio dobrany zespól pytań, które skierowane są do losowo wybranych osób. Podstawowym narzędziem służącym do pomiaru metody jest kwestionariusz. Analizy statystyczne Ma on formę uporządkowanej listy pytań, na które oczekuje się jasnych odpowiedzi. Zadania ,projekty

 

Kwestionariusz składa się z trzech podstawowych części:

 

Ø     nagłówkowej – adresowej; podaje się tu temat i cel ankiety oraz instytucje, która prowadzi badanie;

Ø     zasadniczej – tematycznej; umieszcza się w niej pytania do respondentów. Należy pamiętać, by zadawane pytania przechodziły od ogólnych do szczegółowych, wzbudzały zainteresowanie oraz stopniowo wyczerpywały temat.

Ø     końcowej – metryczki; za jej pomocą uzyskuje się niezbędne dane o indywidualnych cechach każdego respondenta.

 

W zależności od tego, jakiej odpowiedzi oczekujemy kwestionariusze ankietowe możemy podzielić ze względu na formę pytań. Sa to:

 

Ø     Pytania otwarte – dają one respondentowi możliwość wysłowienia się. Znaczy to, że w kwestionariuszu nie ma gotowych odpowiedzi, każdy z ankietowanych może odpowiadać w dowolny sposób.

Ø     Pytania zamknięte – ograniczają możliwość wypowiedzi poprzez wybór wariantu gotowej już odpowiedzi. Badania dowodzą, że taka forma ankiety jest bardziej popularna i prostsza do przeprowadzenia, zarówno dla ankietera jak i respondenta.

 

Do głównych zalet kwestionariuszy o strukturze zamkniętej można zaliczyć: możliwość objęcia badaniami wielu problemów, krótszy czas gromadzenia informacji oraz obliczania rezultatów badań, możliwość łatwego i szybkiego wykorzystania komputerowej techniki obliczania wyników.

Z kolei podstawowymi zaletami kwestionariuszy o strukturze otwartej są: możliwości wykrycia nowych zjawisk, idei lub problemów, uzyskanie pogłębionych i szczegółowych wypowiedzi na badany temat.

 

  Badania ankietowe mogą być przeprowadzone w różnej formie:

 

Ø     prasowe

Ø     telefoniczne

Ø     radiowe

Ø     telewizyjne

Ø     pocztowe

Ø     opakowaniowe

Ø     audytoryjne

Do opracowania wyników ankiet służą różne metody statystyczne, zwłaszcza statystyczna analiza wielowymiarowa. Analiza ta zależy od tego, czy w zbiorze badanych zmiennych występuje zmienna zależną od innych zmiennych oraz od skal pomiaru tych zmiennych. Dlatego tez wyróżnia się metody badania zależności i metody współzależności.

W przypadku metody badania zależności jedna lub więcej zmiennych nazywa się zmienna zależna od zbioru pozostałych, czyli zmiennych niezależnych. W badaniu współzależności nie występuje podział na zmienne zależne i niezależne. Dzięki tym metodom możemy zrealizować określone relacje miedzy zmiennymi w zbiorze zmiennych bądź też relacje zachodzące pomiędzy obiektami opisanymi tymi zmiennymi.

Jeżeli w badaniu posługujemy się zmiennymi niezależnymi to stosujemy wówczas metody klasyfikacji, porządkowania liniowego, wielowymiarowe skalowanie, czy analizę czynnikową. Zaś wykorzystując zmienne zależne sięgamy po takie metody, jak analiza wariancji i kowariancji, analiza dyskryminacyjna, analiza regresji wielorakiej, analiza korelacji kanonicznej, czy analiza połączona.

Za pomocą analizy popaczonej możemy zbadać preferencje odbiorców dotyczące produktu lub jego alternatywnych koncepcji. Metoda ta służy do określenia stopnia użyteczności przypisywanego przez respondentów różnym poziomom atrybutów produktu. Ankietowani układają swoja własna hierarchie produktu ze względu na własne preferencje. Wyniki służą do określenia najbardziej akceptowanej oferty, a następnie ustalenia przewidywanego udziału w rynku i zysku, jaki można osiągnąć na sprzedaży produktu, zmodyfikowanego według zaleceń respondentów.

Szczególną forma ankietowania jest badanie panelowe jako badanie cząstkowe. Jest ono przeprowadzone regularnie w ciągu dłuższego okresu, z tą sama liczbą osób (tzw. panel), w standardowej formie i dotyczy tego samego przedmiotu badań. Celem badań panelowych jest to, aby przez periodyczne powtarzanie poszczególnych badań uwidocznić zmiany ważnych wielkości polityki marketingowej w określonym czasie.

 

 

 

 

Bibliografia:

 

1. „Prognozowanie gospodarcze – metody i zastosowania” - Maria Cieślak, Wydawnictwo Naukowe PWN Warszawa 1997

 

2. „Marketing” – Stanisław Ślusarczyk, Wydawnictwo Naukowe PWN Warszawa 1998

 

3. „Ekonometria” – Marek Gruszczyński, Maria Podgórska, Szkoła Główna Handlowa Warszawa 2000

 

 

 


Mapa strony ekonometria.4me.pl

Ekonometria
Model ekonometryczny teoria
Jednorównaniowy model ekonometryczny
Metoda Hellwiga
MNK
Podstawy weryfikacji
Hipoteza o istotności parametrów strukturalnych
Funkcja produkcji
Ekonometria  korelacja i regresja  wzory
Założenia i własności predykcji ekonometrycznej
Jak to robią profesjonaliści ?
Analiza przepływów międzygałęziowych
Programowanie liniowe
Analiza popytu
Analiza kosztów
Współczynniki Pearsona  dwie zmienne objaśniające
Współczynniki Pearsona trzy zmienne objaśniające
Zadania obowiązujące na SGH cz.1

 

Statystyka

Statystyka  pojęcia podstawowe

Parametry statystyczne

Opracowanie materiału statystycznego

Tablica korelacyjna

Podstawowe prawdy statystyki

Kilka rozkładów

Statystyka  wzory

Dystrybuanta rozkładu normalnego N

Rozkład Durbina Watsona

Rozkład t-Studenta

Rozkład wartości krytycznej współczynnika korelacji dla 0,05

Rozkład F dla 0,05

Rozkład F dla 0,01

Rozkład liczby serii

Rozkład Poissona

Rozkład G.Cochrana

Rozkład chi kwadrat

Prognozowanie i symulacje

Prognozowanie sprzedaży

Prognozowanie popytu
Prognozowanie -metody heurystyczne
Składowe szeregów czasowych
Modele szeregów czasowych
Metody naiwne
Metoda średniej ruchomej

Wygładzanie wykładnicze
Prognozowanie ekonometryczne
Modele tendencji rozwojowej
Modele analityczne
Trend pełzający
Modele składowej periodycznej
Metoda wskaźników
Analiza harmoniczna
Modele autoregresyjne
Modele ARMA i ARIMA
Model nieliniowy
Model tendencji rozwojowej
Metoda prognozowania Hellwiga
Metoda trendu pełazającego
Prognozowanie ekonometryczne
---


Copyright © ekonometria.4me.pl 2005-2013. Wszelkie prawa zastrzeżone. Zabrania się kopiowania, redystrybucji, publikacji lub modyfikacji jakichkolwiek materiałów zawartych na stronie internetowej , bez wcześniejszej pisemnej zgody autorów.


Metody heurystyczne