Szkolenie z prognozowania i modelowania predykcyjnego.

Szkolenie z prognozowania i modelowania predykcyjnego.

Szkolenie z prognozowania i modelowania predykcyjnego.

Szkolenie z prognozowania i modelowania predykcyjnego, to trening, który wykształca umiejętności sformułowania problemu badawczego i jego przetłumaczenia na rozwiązania analityczne. Prognozowanie, predykcja, a także wnioskowanie z analiz jest ostatnim etapem podsumowania solidnie przygotowanych danych, analiz wstępnych, selekcji danych i oceny modeli statystycznych. Szkolenie z prognozowania i modelowania predykcyjnego przygotowanego przez Metodolog.pl jest dobrą formą etapu przygotowawczego dla zespołów mających na celu przetwarzanie dużych wolumenów obserwacji i danych. W przypadku bardziej zaawansowanych potrzeb szkoleniowych Metodolog.pl jest w stanie przygotować materiały, wiedzę i trening dopasowany do specyficznych potrzeb i problemów badawczych.

Czym jest prognozowanie i modelowanie predykcyjne?

Modelowanie predykcyjne to w zasadzie synonimy. Niemniej w biznesie utarły się te pojęcia jako odrębne. Prognozuje się wyniki sprzedaży, rotacji pracowników i przychody, a modele predykcyjne stawia się w kontekście pracy maszyn i systemów informatycznych. Obie te metody można stosować do szerokiego spektrum problemów biznesowych i sytuacji w których decydowanie lub przewidywanie jest zbyt trudne lub drogie dla wykonania przez pojedynczą osobę lub zespół pracowników. Prognozowanie i modelowanie predykcyjne wykorzystuje się najczęściej w kontekście redukcji kosztów lub potęgowania zysków. Najczęściej metody te są stosowane w obsłudze klienta, szacowaniu trwania życia (do momentu przejścia do innej firmy lub odejścia ze stanowiska) klienta i pracownika, ocenianiu ryzyka kredytowego, ocenie wartości leada i wielu innych sytuacjach, które wymagają decyzji lub wniosków opartych o twarde i rzetelne dane, a nie intuicję lub ekspertyzę.

Dla kogo szkolenie?

Szkolenie z prognozowania i modelowanie predykcyjnego jest zdecydowanie zalecane dla zespołów i ludzi mających na celu zajmowanie się przetwarzaniem danych w kontekście biznesowym lub przemysłowym. Szkolenie trwające 16 lub 24 godzin jest w stanie zapewnić wystarczającą wiedzę o podstawach teorii klasyfikacji (obiektów do zbiorów np. osób do grup ryzyka kredytowego) oraz predykcji (wartości ciągłych np. przychodów lub czasu trwania projektu), a także metod eksploracyjnych i odkrywania wiedzy z danych (metody bez nadzoru, sieci Kohonena, analizy skupień, skalowanie wielowymiarowe, PCA, CFA itp.). W tym czasie uczestnicy posiądą również wiedzę na temat wykonywania tych analiz  w darmowych programach do analizy statystycznych takich jak JASP, ORANGE, Rapid Miner, Weka lub R.

Co zawiera podstawa szkoleniowa?

Podstawa szkoleniowa zawiera poznanie praktycznych sposobów eksploracji danych, badania związków liniowych i innych funkcji łączących zmienne. Odróżnienia metod analizy klasyfikacyjnych od metod predykcyjnych, a także sposób odkrywania wiedzy ich oceny pod kątem biznesowym. Podstawą szkolenia jest również zapoznanie uczestników z podstawami weryfikacji hipotez badawczych i odróżnianiu mechanizmów przyczynowoskutkowych od korelacji. To co wyróżnia nasze szkolenie to również nauczenie oceny metod zbierania danych, a także trening formułowania mikro i makro teorii biznesowej rzeczywistości w specyficznych kontekstach działania danego obszaru gospodarowania firmy.

Czy szkolenie może być szyte na miarę?

Szkolenie z prognozowania i modelowania predykcyjnego może być szyte na miarę. Polega to na zapoznaniu się z uniwersum problemów danych firmy i  krytycznej ich ocenie. Na podstawie takiego „audytu” jest formułowane spektrum elementów wymaganych poprawy, przeszkolenia, a także wsparcia.

Zachęcamy do kontaktu.

Powody wykorzystania modelowania równań strukturalnych w zarządzaniu i rachunkowości

Powody wykorzystania modelowania równań strukturalnych w zarządzaniu i rachunkowości

Powody wykorzystania modelowania równań strukturalnych w zarządzaniu i rachunkowości.

Powody wykorzystania PLS – SEM w badaniach o zarządzaniu i rachunkowości. Kilka racjonalnych uzasadnień stojących za użyciem metody SEM-PLS było dyskutowanych w literaturze metodologicznej (Hair i inni, 2016). Ze względu na to, że wykorzystywanie SEM-PLS jest względnie nowe w zarządzaniu i rachunkowości, to często wymaga szczegółowego wyjaśnienia i trafnego uzasadnienia dotyczącego powodów jego użycia. Pierwszy wkład w zastosowanie SEM-PLS w obszarze rachunkowości i zarządzania mieli Ittner, Larcker, and Rajan (1997). Autorzy wyjaśniali dokładną funkcjonalność algorytmu SEM-PLS w tych dziedzinach. Z 37 badań które obserwowali 33 zasadnie podkreślało kwestię powodów użycia SEM-PLS. Dwa najczęściej wspominane powody dotyczyły małej próby badawczej (29 badań), braku rozkładu normalnego (25 badań). Kolejnym powodem było jednoczesne oszacowanie powiązanych ze sobą zmiennych i wykorzystanie pomiaru zmiennych latentnych (9 badań). Dodatkowymi powodami za użyciem SEM-PLS był eksploracyjny cel wyjaśnień (8 badań), a także formatywny poziom pomiaru zmiennych (6 badań). Innymi znaczącymi powodami, które były rzadko wskazywane, dotyczyły utrzymania złożoności modelu strukturalnego (5 badań) i zorientowanie analizy na cele predykcyjne (jedno badanie).

Maksymalizacja predykcji.

Ten termin (jak wynika z powyższego tekstu) jest najczęściej zaniedbywany w wykorzystaniu SEM-PLS w zarządzaniu i rachunkowości. Predykcja w tych dziedzinach jest ważną częścią odpowiadania na stawiane w projektach pytania badawcze. Malmi i Granlund (2009) postrzegają teorie zarządzania i rachunkowości jako takie, które wyraźnie są zorientowane na cel predykcji z powodu dążenia do ekonomicznej skuteczności i maksymalizacji zysków np. akcjonariuszy. W tej linii Merchant (2012) twierdzi, że bieżące teorie zarządzania i rachunkowości skupiają się zbyt silnie na ogólności i statystycznej istotności raczej niż na użytecznych implikacjach dla praktyków. Wykorzystywanie modelowania równań strukturalnych SEM-PLS w tych obszarach badawczych jest obiecującą metodą weryfikacji przewidywań i rozstrzygnięć w kontekście obserwowanych przyczyn i skutków.

Poniżej można zobaczyć jak za pomocą modelowania równań strukturalnych wykorzystuję się krzywoliniową funkcję do przewidzenia ceny BITCOINA. Pomimo tego, że zmienne w tej analizie nie tworzą zmiennych latentnych, badanych osberwacji jest obfita ilość, to warto zobaczyć jak estymacja wyników dzięki tej metodzie zwraca bardzo dokładną predykcję dotyczacą kursu internetowej waluty.

Bibliografia.

Hair, J. F., Hult, G. T. M., Ringle, C. M., & Sarstedt, M. (2016). A Primer on Partial Least Squares Structural Equation Modeling (PLS-SEM) (2nd ed.). Thousand Oaks: Sage.

Ittner, C. D., Larcker, D. F., & Rajan, M. V. (1997). The Choice of Performance Measures in Annual Bonus Contracts. The Accounting Review, 72(2), 231-255.

Malmi, T., & Granlund, M. (2009). In Search of Management Accounting Theory. European Accounting Review, 18(3), 597-620

Merchant, K. A. (2012). Making Management Accounting Research more Useful. Pacific Accounting Review, 24(3), 334-356

Wykorzystanie teorii amalgamatów w analizie motta „Władzą jest wiedza o źródłach zmienności” firmy Metodolog.pl.

Wykorzystanie teorii amalgamatów w analizie motta „Władzą jest wiedza o źródłach zmienności” firmy Metodolog.pl.

Pomoc statystyczna, analizy statystyczne, usługi naukowe w Metodolog

Termin amalgamat w teorii Fauconniera i Turnera oznacza proces kognitywny, operujący na przestrzeniach mentalnych rozumianych jako pewne zlepki koncepcji powstające w toku myślenia i mówienia. Te zlepki są wzajemnie skorelowane i wraz z postępem myśli, czy dyskursu, podlegają naturalnym zmianom. W rezultacie na podstawie połączenia się tych koncepcji, powstaje nowe znaczenie – amalgamat. Amalgamat zasysa z tych znaczeń pewne ich cząstki, a następnie stapia je w jedną całość, która jest nową strukturą pojęciową (Fauconnier, Turner, 2001). Mechanizm powstawania amalgamatów polega na integracji konceptualnej obejmującej dwie (lub więcej) przestrzenie wyjściowe, przestrzeń generyczną (wspólną część znaczeń dla obu wyjściowych przestrzeni), a także swoją nową, charakterystyczną strukturę. Amalgamat powstaje na zasadzie związania się częściowych odwzorowań między znaczeniami i projekcji struktur znaczeniowych z jednej przestrzeni na drugą (Coulson, Oakley, 2000). Jak Twierdzi Fauconnier, a także Coulson i Oakley, kształtowanie się amalgamatów, a także innych znaczeń, zachodzi dzięki temu, że człowiek ma umysłowy potencjał integracji konkretnych informacji ze swojego całego zasobu wiedzy,  doświadczenia, możliwości poznawczych, kontekstu i dyskursu w jakim się znajduje.

Amalgamat w Metodolog.pl

W elaborowanym tutaj motcie firmy Metodolog.pl wykorzystano teorię tworzenia się amagamatów, a także jedną ze specyficznych zasad jego kształtowania się (Coulson, Turner, 2000). Zasada to dotyczy maksymalizacji istotnych relacji w amalgamacie i odzwierciedlania ich w powiązaniach wiążących się najczęściej z przywołaniem tła kognitywnego ramy pojęciowej, która wnosi nową relację. Dzięki teorii tworzenia się amalgamatów i zasady maksymalizacji istotnych relacji w nim zawartych można zasymulować generowanie się nowego znaczenia w zwrocie „Władzą jest wiedza o źródłach zmienności”. W analizie koncepcji leżących u podstaw motta trzeba zacząć od tego, że jest ono zagnieżdżone w kontekście firmy zajmującej się analizami statystycznymi i projektowaniem badań w nauce i biznesie. Firma działa od 2015 roku i zatrudnia naukowców, a także specjalistów z różnych dziedzin nauki do pracy z danymi i metodami badawczymi. Klientami Metodolog.pl są zarówno osoby zajmujące się badaniami w nauce jak i osoby wykonujące badania w obszarze biznesu. Osoby te charakteryzują sie wysokim potencjałem intelektualnym i kulturowym. Dzięki temu mają możliwość sformułowania amalgamatu zgodnego z intencją autora motta Metodolog.pl

Dzięki teorii tworzenia się amalgamatów możemy dokonać opisu i wyjaśnienia motta Metodolog.pl. U podstaw amalgamatu wynikającego z motta legły dwie struktury pojęciowe: 1) władza; 2) wiedza o źródłach zmienności (a konkretnie chodzi o zmienność danych wywołaną w eksperymencie naukowym). Gdyby  przyjąć pewne założenia dotyczące znaczeń w składowych pojęciowych motta,  to można powiedzieć, że władzę ma zawsze jakiś podmiot (polityk, dyrektor, prezes), jest on kontrolujący (ludzi, obszaru, zasobów), ma swój przedmiot sprawowania (ład w państwie, firmie) i cel (dobrobyt obywateli, pracowników), a także działa logicznie, czyli ma metodę działania (trójpodział władzy). Natomiast wiedza o źródłach zmienności, czyli wiedza o przyczynach i sile występowania zjawisk w przyrodzie ma zawsze swojego autora. Autor ten jest również podmiotem odkrywania tych źródeł zmienności (naukowiec, doktorant, praktyk), również kontroluje on przyrodę na zasadzie ustrukturalizowanej obserwacji (eksperymentowanie, manipulowanie rodzajem i zakresem działań), przedmiotem jego oddziaływań jest przyroda w skali mikro (na okres eksperymentu). Celem lub motywacją podmiotu generującego wiedzę o źródłach zmienności jest dobrobyt ludzi i świata, a jego metodą jest ligiczna, bezstronna i bezosobowa metoda naukowa. Można przyjąć, że władza jako taka jest znaczeniem abstrakcyjnym i absolutnym, a wiedza o źródłach zmienności jest konkretną naukową narracją na temat pewnego wycinka rzeczywistości. Stopienie tych dwóch pojęć w amalgamat wynika z nakładania się pojęcia abstrakcyjnej władzy wszechogarniającej, abstrakcyjnej i systematycznej z pojęciem naukowej dokładności, sterylności, względnie całkowitej kontroli eksperymentalnej, a także celem jakim jest dobro ludzi i świata. Funkcjonalne i wyraźne analogie między sprawowaniem władzy nad państwem, a władzą nad warunkami eksperymentalnymi na zasadzie tła uwypuklają figurę fundamentalnego znaczenia totalnej władzy naukowca nad wynikami eksperymentu, a także produkowaną wiedzą o prawidłowościach przyrodniczych. W kontekście firmy oferującej specjalistyczne usługi w nauce, taki amalgamat może wpływać na myślenie klienta o firmie Metodolog.pl w kierunku pojmowania jej jako miejsca doskonałej realizacji usług i osiągnięciu wraz z nią pożądanego postępu i rozwoju naukowego.

Wykorzystanie teorii amalgamatów w analizie motta „Władzą jest wiedza o źródłach zmienności” firmy Metodolog.pl.

 

Rysunek nr 1.

Dekompozycja pojęć wyjściowych i ich integracja w amalgamacie.

Bilbiografia:

Coulson S., Oakley T. (2000), Blending basics, „Cognitive Linguistics” 11-3/4, s. 175–196.

Fauconnier G., Turner M. (2001), Tworzenie amalgamatów jako jeden z głównych procesów w gramatyce, przeł. W. Kubiński i D. Stanulewicz, [w:] W. Kubiński, D. Stanulewicz (red.), Językoznawstwo kognitywne II. Zjawiska pragmatyczne, Gdańsk, s. 173–211.

Szkolenie - Statystyczny SCORING Bankowy

Szkolenie – Statystyczny SCORING Bankowy

Szkolenie – Statystyczny SCORING Bankowy

Szkolenie – Statystyczny SCORING Bankowy – Przedmiotem szkolenia jest zapoznanie jego uczestników scoringu statystycznego, a także jego budowa polegająca na modelowaniu zebranych informacji oraz konstrukcji karty scoringowej mającej na celu ocenę punktową osoby ubiegającej się o kredyt. Oferta szkolenie obejmuje wszystkie czynności niezbędne do wykonania profesjonalnego modelu statystycznego o zmaksymalizowanych parametrach dyskryminacyjnych klientów spłacających i niespłacających zobowiązania bankowego terminie.

Czym jest SCORING w banku?

Model scoringowy, który oparty jest nowoczesne algorytmy statystyczne jest zbudowaną z danych historycznych matematyczną różdżką, która z oczekiwaną pewnością ocenia zdolność klienta do spłaty zobowiązania w określonym czasie. Skuteczność modelu scoringowej opiera się na prostej teorii polegającej na wnioskowaniu z przeszłości o przyszłości. Wykorzystywane dane historyczne o klientach podlegają ocenie statystycznej w kontekście zdolności do odróżniania klientów spłacających od niespłacających. Zebrane i ocenione zmienne po odpowiednim modelowaniu, zbadaniu interakcji z innymi cechami klientów i maksymalizacji trafności w odróżnianiu klientów złych od dobrych budują model statystyczny, który jest oparty o mocne podstawy liczbowe i teoretyczne. Model taki jest podstawą od wielowymiarowej oceny punktowej nowego klienta w kontekście ryzyka przyznania kredytu. Ocena punktowa wraz z informacjami o oczekiwanej spłacalności i jej braku jest sposobem na utrzymanie bądź zmianę strategii kredytowej banku. Karta taka zawiera oszacowane w skali od 0 do 100% proporcje przewidywanych kredytów spłaconych do kredytów niespłaconych. Oczekiwana spłata i strata przy danym punkcie odcięcia na skali punktowej stanowi podstawę do podejmowania decyzji o przyznaniu kredytu. Analizy statystyczne najczęściej wykorzystywane do oceny ryzyka i pełniące funkcje silników decyzyjnych, to regresja logistyczna, drzewa decyzyjne, losowe lasy, SVM, analiza deyskryminacyjna, naiwny klasyfikator bayesa, a także sieci neuronowe (wielowarstwowy perceptron) i stochastyczne gradienty w specyficznych przypadkach produkcyjnych. W Metodolog.pl wykorzystujemy podejście do danych i analizy zbliżone do metodologii CRISP-DM.

Szkolenie – Statystyczny SCORING Bankowy – Czego dotyczy szkolenie?

Metody i tematy jakie będą wykorzystane w pracach mających na celu konstrukcję karty scoringowej.

  1. Ocena jakości i poprawności danych
  2. Sformułowanie definicji dobrego i złego klienta.
  3. Eksploracja danych pod kątem obserwacji odstających i wątpliwych, a także braków danych
  4. Modelowanie danych za pomocą technik ręcznych, wizualizacyjnych oraz statystycznych w przewidywanej proporcji odpowiednio 15%, 45% i 40%.
  5. Dobór zmiennych do modelu mających znaczenie w przewidywaniu spłat.
  6. Badanie interakcji między zmiennymi w przewidywaniu spłat
  7. Testowanie modeli statystycznych, które są kompromisem między prostą i oszczędnością zmiennych, a siłą predykcyjną w przewidywaniu spłat.
  8. Testowanie algorytmów statystycznych w kontekście testowanych modeli w punkcie g.
  9. Testowanie wybranych modeli statystycznych na próbie treningowej (która nie brała udziału w budowie modelu)
  10. Testowanie modeli na próbie walidacyjnej (heterogeniczna i skromna próbka klientów mająca na celu symulować charakterystyki nowych klientów banku).
  11. Wybór modelu i budowa karty scoringowej.
  12. Budowa tabeli oszacowań proporcji spłat i ich braku przy każdym punkcie odcięcia na skali punktowej generowanej przez kartę scoringową.
  13. Metody mające na celu walidację poprawności działania modelu.
  14. Podstawową metodą oceny końcowego modelu jest to, czy model zbudowany na próbie uczącej jest zdolny do uogólniania wiedzy na zbiorze treningowym. Porównanie oszacowań modelu uczącego z modelem treningowym jest procedurą niezbędną do podjęcia decyzji o poprawności przewidywań modelu scoringowego na próbie walidacyjnej, a także na produkcji w banku. Dzięki tej procedurze jest możliwe wybranie modelu, który zwróci w warunkach produkcyjnych właściwości podobne do tych uzyskanych podczas analizy.
  15. Etapem weryfikującym jednoznacznie trafność przewidywań modelu będzie wygenerowanie losowych, a także stronniczych obserwacji przez generator liczb pseudolosowych i przeanalizowanie ich przez zbudowany model. Wyniki uzyskane na poziomie konkretnego punktu odcięcia mogą być porównane z opinią eksperta, a także z przewidywaniami ustalonymi przez model uczący i treningowy.

Ocena jakości modelu będzie się odbywać o klasyczne wskaźniki i testy statystyczne informujące o zdolności dyskryminacyjnej osób spłacających i niespłacających, a także dopasowaniu modelu do zebranych danych przez bank. Wskaźnikami tymi jest Area Under Curve, R2, R2 Coxa Snella, R2 Naglekerkego, R2 McFaddena, Kołmogorow Smirnow Distance, a także Weight of Evidence, Information Value, D Cohena, AIC, BIC oraz techniki graficzne polegające na ocenie histogramów.

Szkolenie – Statystyczny SCORING Bankowy – Zachęcamy do kontaktu.

Postęp naukowy, a postęp teorii nienaukowych.

Społeczność antynaukowa okiem psychologa, metodologa i statystyka w jednej osobie.

Społeczność antynaukowa okiem psychologa, metodologa i statystyka w jednej osobie.

Wstęp.

Nie chcę być postrzegany jako komuch lub nie wiem kto. Niemniej w kapitaliźmie autorytetem staje się często miernota moralna, dlatego też mamy wszelkie powody ku temu, aby w obecnej sytuacji rozwojowej historii kultury i techniki ludzkiej uważać ignorowanie nauki za najgroźniejsze ze wszystkich niebezpieczeństw. Nie poprawimy szansy na stawienie czoła fundamentalizmom antynaukowym traktując je jako zjawiska przejściowe i dotyczące małej liczebności populacji. Może natomiast sprostamy temu poprzez zbadanie łańcucha przyczyn, które wpływają na to, że ludzie wchodzą w te niezbyt rozsądne ruchy społeczne.

Ze względu na moje osobiste zaniepokojenie sytuacją związaną z ciągłymi doniesieniami o rosnącej grupie zwolenników osób, które propagują wątpliwą perspektywę zdrowego trybu życia, postanowiłem napisać tekst dotyczący mojej oceny sytuacji i perspektywy możliwości uporania się z tym problemem społecznym. Nie znam się na ruchach antynaukowych, a także nie znam się na walce z nimi. Niemniej to co jawi mi się w internecie, a także w życiu codziennym, a mówię tu konkretnie o manifestowaniu niebywale pewnych oraz mglistych poglądów na zdrowe życie przez różne i dziwne osoby, wymusza na mnie zajęcie konkretnego stanowiska wobec takiego typu praktyk, a także wsparcia osób wrażliwych na tego rodzaju manipulację.

To co chciałbym przekazać ludziom, którzy wahają się przy wyborze stylu życia lub praktykowania pewnych działań skierowanych na siebie (mówię tu o praktykach zdrowotnych i dbaniu o własnego ducha oraz ciało) to, to że mogą wziąć sobie do serca co tutaj piszę i pokontemplować chwilę nad sobą i własnym życiem. Dla zwykłego człowieka kluczowe w podjęciu decyzji o sobie samym jest ważne, aby zapoznał się z informacjami po obu stronach barykady. Jest to niezwykle trudne i czasochłonne. Niemniej co w życiu jest proste i szybkie prócz zupek chińskich z paczki?

Nauka i metodologia.

Nauka jeszcze nie, ale metodologia badań brzmi dosyć kosmicznie i nie dla każdego jest to pojęcie znane. Zacznijmy od tego, że postęp naukowy oraz techniczny jest zależny od metod badań. Metody badań są to czynności niezbędne, by uchwycić choć w drobnej cząstce naturę, która nam wszystkim się jawi w swej całej okazałości i prawidłowości. Najprostszą metodą badania jest obserwacja, czyli zwykłe obserwowanie danego obiektu rzeczywistości. Wystarczy, że będziemy przez jakiś czas obserwować np. życie pewnego człowieka, a będziemy mieć rzetelne informacje o kluczowych momentach i zdarzeniach mających dla niego przełomowe znaczenie w kontekście jego zmiany zachowania np. śmierć bliskiej osoby, pierwsza praca i choroba. Drugą metodą na której chciałbym się skupić to metoda eksperymentalna. Podkreślam ją dlatego, że jest to królowa nauki. W skrócie polega ona na wywołaniu pewnych przyczyn zjawiska i pomiarze konsekwencji z tego wynikających, a także porównaniu tych wyników z grupą kontrolną w której danego zjawiska nie wywoływano. Prosty przykład. Jednej grupie uczniów podajemy na stołówce przesoloną zupę, natomiast drugiej dajemy zupę posoloną optymalnie, a następnie sprawdzamy ile wody wypiją. Dzięki takiemu ilościowemu podejściu możemy wnioskować o pewnych rzeczywistych zależnościach rządzących naturą, a w tym kontekście życiem ludzkim. Jak metoda ma się do nauki? Dzięki metodom badań, ich dopracowywaniu, tworzeniu nowych instrumentów pomiarowych, a także krytykowania różnych metodologii możemy coraz dokładniej badać otaczający nas świat. Nauka i metody badań idą ramię w ramię tworząc nową wiedzę oraz niewiedzę. Niewiedzę? Jak to? Tak to. Każda nowa wiedza wywołuje nową niewiedzę. Każde nowe odkrycie pociąga za sobą kolejne pytania i stawia liczne wątpliwości. Np. co jeszcze dzieje się z dziećmi pod wpływem soli?; Czemu po soli tyle się pije?; Co może spowodować, że nie trzeba pić tyle wody?; itd. itp. Stan wiedzy jest zawsze tymczasowy i niezbyt pewny, choć pewny na tyle, że można mu ufać.  Niemniej w kontekście podejmowania decyzji wiedza ta jest nieoceniona dla życia i rozwoju ludzi, a także całych społeczeństw oraz kultur. Naukowcy, technicy, przemysł, a także cały świat wiedzy nie jest spiskującym przeciwko ludziom molochem. Jest raczej Pewnego rodzaju misją polegającą na tym, by ułatwić i umilić życie ludziom.

Spiski naukowe – Wielkie koło informacji, nadziei i wątpliwości.

Codziennie jesteśmy zalewani informacjami dotyczącymi odkryć naukowych mających zrewolucjonizować lub poprawić jakość życia. Dziennikarze oraz media (o zmiennej rzetelności jednych i drugich) komunikują ludziom nowe i fenomenalne odkrycia naukowe. Odkrycia te są niekiedy przełomowe i bardzo ważne w postępie naukowym i wynalazczym. Niemniej są one na tyle nowe, że konieczne są dalsze nad nimi badania. Są one wykonywane po to, by nie były one zagrożeniem dla ludzi, ekonomii, a także niekorzystnych zmian społecznych. I tu pojawia się pewien zgrzyt między oczekiwaniami zwykłych ludzi, a światem nauki. Wynika on głównie z tego, że odkrycia naukowe są przedstawiane przez dziennikarzy jako zbawienie i remedium, że wystarczy ich użyć, by naprawić świat. Zazwyczaj takie uproszczone komunikowanie doniesień naukowych sprawia, że ludzie mają pewne oczekiwania i nadzieje. Te ostatnie są jedynym co zostało osobom będącym w sytuacjach beznadziejnych (choroby, urazy, niepełnosprawność, przemoc itp.). Te oczekiwania i nadzieje nie są spełniane, ponieważ dalsze badania nad danym zagadnieniem wymagają czasu i ogromnej pracy wysoko wyspecjalizowanej kadry specjalistów, często niezależnych od siebie zespołów, a czasem wręcz naukowców ze sobą konkurujących (choć konkurencja ta w świetle nauki i postępu jest raczej postrzegana jako zdrowa i pożądana). Czas między odkryciami, a wykorzystaniem ich wyników w praktyce społecznej jest procesem, a nie rewolucją. I w tym właśnie momencie, i na tej właśnie podstawie swoje „wici” rozwijają osoby, które świadomie bądź nie „smażą” pieniądze na szarych obywatelach mających wielkie nadzieje w alternatywnych metodach, praktykach leczenia i zachowywania się. Obywatele mają te doniesienia z tyłu głowy i w odpowiednim momencie mogą się one aktywizować. To w jakim kontekście te informacje będą przywołane będzie determinowało dalszą ich ocenę. Ludzie się różnią i z tego zróżnicowania wynika bardzo wiele ważnych kwestii. Z perspektywy psychologicznej i statystycznej zawsze w społeczności ludzi znajdzie się grupa osób wrażliwych, która będzie skłonna wejść tę przestrzeń praktyk i oddać się pod mentalną opiekę oraz wytyczne swego alternatywnego guru. Zawsze znajdą się osoby lub nawet grupy osób, które są niestabilne emocjonalne, trochę mniej inteligentne, introwertywne, bez wsparcia, zalęknione wielkim i bezlitosnym światem zewnętrznym, chcące troszczyć się o ten skromny kawałek tożsamości jakim jest ich głos przeciwko sztucznie wykreowanemu przez guru „złu”, a także pragnące nakarmić nadzieje nowymi sposobami leczenia, zarobku lub zachowania.  Wpływ na działanie takich osób, na zmianę ich postaw, myślenia oraz odczuwania nie jest zarówno, ani skomplikowany, ani zakazany prawem. I musimy powiedzieć sobie jasno, że mniej lub bardziej świadome manipulowanie tą grupą społeczną  ma bardzo negatywne konsekwencje w przypadku chorób i trudnych sytuacji w jakich Ci ludzie się znajdują. Sztandarowym przykładem jest to, że dla nich pierwszą instancją kontaktu jest negatywnie zindoktrynowana rzesza ludzi myślących podobnie jak oni i zachowujących się bardzo stronniczo w kontekście pomocy w sytuacjach trudnych (choroby, zachowania, uzależniania, porady prawne itp.). Jakie to może mieć skutki? Wszyscy wiemy…

*Najzabawniejsze jest to, że niektórzy alternatywni guru robią całkiem dobrą, fajną i pożądaną robotę w kwestii promocji zdrowego trybu życia. Jest to niebywały fenomen. Niemniej z drugiej strony, jeśli twierdzenia tych guru nie wytrzymują zwykłej chłopskiej krytyki lub ich twierdzenia nie mogą być zweryfikowane, to hallooo, nooo chyba coś jest jednak nie tak. Do tego dochodzi sam fakt istnienia pewnego rodzaju pewności w ich stanowiskach…  wobec ich pewnych i ostatecznych zaleceń powinien włączać się czerwony alarm w umysłach ludzi odbierających narrację tej jakości. Podkreślam. W życiu pewna jest tylko śmierć i podatki.

Co robić i jak żyć?

Wydaję mi się, że osoby które poddały się wyżej opisanemu wpływowi wraz ze swoimi bliskim oraz są skrajnymi zwolennikami teorii spiskowych, alternatywnych form terapii i życia, trudno wchodzą w jakikolwiek merytoryczny dialog. Są zamknięci i wyczuleni na jakikolwiek wpływ w kierunku ich zbiorowej, a także indywidualnej tożsamości. Ich zmianę może wywołać jedynie modyfikacja prawa przez ustawodawcę, ale to jest bardzo trudne we wdrożeniu i kontroli. To jak można się z nimi komunikować to np. przekaz jednostronny, który jest nastawiony na ukazywanie ryzyk, negatywnych konsekwencji wynikających z ich podejścia, ale również przedstawiania korzyści jakie niesie zmiana na pronaukowy styl życia oraz to jak można to zrobić. Poza tym rozsądnym wydaje się wpływanie na opinię i postawy osób będących „pomiędzy” przez promocję nauki dzięki oddolnym ruchom naukowców oraz ustawodawców. To właśnie z takimi osobami, które nie są zbyt zmącone ideologią alternatywnych guru oraz nie są zamknięte na sprzeczne informacje, można pracować i ich można łatwiej przekonać co do tego, że nauka wraz ze swoim dorobkiem oraz tradycją, a także z rozsądkiem danym ludziom może wyciągać z niedoli. Wynika to z faktu, że osoby te nie mają jasno sprecyzowanych poglądów i prawdopodobnie są chętne oraz otwarte na ważenie informacji o alternatywnych i naukowych doniesieniach. W przypadku antynaukowych fundamentalistów merytoryczne argumenty są nie do przyjęcia, bo nie podzielają ich poglądów i tradycyjnych zwykle, recept na życie. To co można zmienić w samym dialogu naukowym i jego komunikowaniu to zmiana znaczeń, sposobu sprawozdawczości wyników badań, interpretacji argumentów naukowych, pokazywania ich na zasadzie metafor i analogii, by mogły one trafiać do przeciętnego człowieka.