Międzynarodowe Badanie Postępów Biegłości w Czytaniu
oraz Międzynarodowe Badanie Wyników Nauczania Matematyki i Nauk Przyrodniczych zostały dofinansowane
ze środków budżetu państwa w wysokości
PIRLS (Progress in International Reading Literacy Study) – Międzynarodowe Badanie Postępów Biegłości w Czytaniu to międzynarodowy, cykliczny program pomiaru osiągnięć szkolnych uczniów. Badanie jest realizowane co pięć lat (pierwsze edycja przeprowadzona była w 2001 roku) i jest jednym z największych na świecie projektów badawczych dotyczących osiągnięć edukacyjnych. Badanie jest organizowane przez Międzynarodowe Stowarzyszenie Mierzenia Osiągnięć Szkolnych – IEA, z siedzibą w Amsterdamie. Pierwszą i drugą realizowaną w Polsce edycję badania (w 2006 i 2011 roku) przeprowadził zespół pracowników Centralnej Komisji Egzaminacyjnej pod kierownictwem prof. dr hab. Krzysztofa Konarzewskiego. Realizację kolejnych edycji badania Ministerstwo Edukacji Narodowej powierzyło Instytutowi Badań Edukacyjnych.
Badanie PIRLS 2021 zostało dofinansowane ze środków budżetu państwa w wysokości 2 480 398,39 zł.
Badanie PIRLS 2026 prowadzone jest w ramach projektu „Przygotowanie i realizacja międzynarodowych badań edukacyjnych w obszarze kompetencji kluczowych” finansowanego z Funduszy Europejskich dla Rozwoju Społecznego (FERS).
Głównym celem badania PIRLS jest pomiar umiejętności rozumienia czytanego tekstu, w jego dwóch formach: tekstu literackiego i tekstu użytkowego. W programie PIRLS określa się osiągnięcia szkolne uczniów za pomocą testu opracowanego przez międzynarodowy zespół ekspertów. Jest on skonstruowany tak, żeby dostarczyć pełnej wiedzy o czytelniczych kompetencjach czwartoklasistów w odniesieniu do tekstów literackich i informacyjnych. W badaniu bierze udział kilkadziesiąt krajów z całego świata. Listę krajów biorących udział w poszczególnych edycjach badania znaleźć można na stronie: https://www.iea.nl/studies/iea/pirls.
Międzynarodowa definicja populacji będąca przedmiotem badania PIRLS zakłada, że stanowią ją dzieci, które chodzą do szkoły i kończą czwarty rok nauki na szczeblu ISCED 1, a ich średni wiek w momencie badania nie jest niższy niż 9,5 roku. Badanie w Polsce – podobnie jak w TIMSS – obejmuje więc uczniów klas czwartych szkół podstawowych. W każdym kraju spośród wszystkich szkół, do których uczęszczają uczniowie z tak zdefiniowanej populacji, losowana jest reprezentatywna próba (w Polsce to około 150 szkół). W szkołach, w których uczniowie podzieleni są na dwa lub więcej oddziałów, losuje się do badania nie więcej niż 2 oddziały. W badaniu biorą udział wszyscy uczniowie wylosowanego oddziału, a ankiety wypełniane są także przez rodziców, nauczycieli języka polskiego oraz dyrektorów szkół. Zbiory danych są ogólnodostępne, co umożliwia prowadzenie wtórnych analiz.
Inicjatorem i głównym organizatorem badania jest Międzynarodowe Stowarzyszenie Mierzenia Osiągnięć Szkolnych (International Association for the Evaluation of Educational Achievement, IEA). Jest to założona w 1958 r. niezależna międzynarodowa organizacja zrzeszającą instytucje badawcze i agencje rządowe. IEA prowadzi szereg międzynarodowych badań porównawczych dotyczących kompetencji uczniów w ramach różnych dziedzin (m.in. TIMSS, PIRLS, ICILS i ICCS).
W skład międzynarodowego konsorcjum badawczego odpowiadającego za realizację badania wchodzi także Międzynarodowy Ośrodek Badawczy przy Wydziale Edukacji w Koledżu Bostońskim (Lynch School of Education in Boston College), Sekretariat IEA w Amsterdamie, RTI International, Uniwersytet w Memphis i Expertisecentrum Nederlands. Instytucje te są odpowiedzialne za organizację badania przy ścisłej współpracy z IEA i zespołami badawczymi z krajów uczestniczących w badaniu. Partnerami w poprzednich edycjach badania byli: Agencja Testowania Edukacyjnego w Princeton (Educational Testing Service), Kanadyjski urząd statystyczny (Statistics Canada) w Ottawie, Narodowa Fundacja Badań Edukacyjnych (NFER) w Anglii i Walii, Australijska Rada Badań Edukacyjnych (ACER).
Badanie jest prowadzone przez krajowe zespoły badawcze. Każdy kraj powołuje krajowego koordynatora badania (National Research Coordinator – NRC), który wraz z zespołem sprawuje nadzór nad harmonogramem badania, dba o terminowe, rzetelne i zgodne z procedurami przeprowadzenie badania oraz o dostosowanie założeń badawczych do realiów swojego kraju. IEA zatrudnia międzynarodowego kontrolera jakości, który czuwa nad przebiegiem badania w terenie w danym kraju. Wszelkie odstępstwa od rygorystycznych procedur badawczych są odnotowywane w międzynarodowym raporcie z badania. W przypadku poważnych uchybień dany kraj może w ogóle nie zostać ujęty w raporcie.
Wszystkie narzędzia badawcze używane dotychczas w badaniu PIRLS w Polsce były narzędziami w formie papierowej. Badanie PIRLS 2021 było ostatnim badaniem wykorzystującym taką formę narzędzi. Badanie PIRLS 2026 przeprowadzane będzie wśród uczniów na komputerach, wykorzystując cyfrową formę zadań. Dzięki temu możliwe będzie sprawdzenie, w jakim stopniu uczniowie opanowali umiejętności czytania i interpretacji w środowisku cyfrowym.
Badanie polega na przeczytaniu przez uczniów tekstów i udzieleniu odpowiedzi na pytania otwarte i zamknięte. Dzięki temu można zebrać dane o osiągnięciach szkolnych uczniów z poszczególnych krajów. W drugiej części badania uczniowie odpowiadają na pytania w ankiecie, co pozwala na zebranie danych kontekstowych. Ankiety skierowane są również do dyrektorów szkół, nauczycieli i rodziców uczniów wylosowanych do badania.
Proces przygotowywania tekstów i zadań, które będą następnie wykorzystane w badaniu, rozpoczyna się ponad dwa lata wcześniej. Konsorcjum międzynarodowe w porozumieniu z krajowymi zespołami decyduje o zakwalifikowaniu do badania tekstu będącego podstawą do wiązki zadań zbudowanych wokół niego. Teksty muszą być dopasowane pod względem językowym i kulturowym do umiejętności i możliwości poznawczych dziesięciolatków z różnych krajów. Liczba pytań pokrywa się z liczbą elementarnych zmiennych w bazie danych.
Gdy konsorcjum, po wstępnym pilotażu, wybierze zadania do kolejnego cyklu badania, są one tłumaczone i adaptowane do warunków poszczególnych krajów. Adaptacja polega na dostosowaniu kulturowym i językowym pytań. Wszelkie drobne zmiany są odnotowywane w dokumentach konsorcjum. Kolejny etap prac to weryfikacja i uzgodnienia ostatecznej wersji polskich narzędzi pomiędzy konsorcjum a krajowym zespołem badawczym. Konsorcjum zatrudnia polskojęzycznego weryfikatora, który dokonuje oceny narzędzi, zgłasza uwagi i komentarze. Zadaniem zespołu krajowego jest odpowiedź na uwagi weryfikatora i ustalenie ostatecznej wersji narzędzi. Wersja ta jest ponownie sprawdzana przez konsorcjum. Po zakończeniu adaptacji narzędzi konsorcjum przygotowuje schemat oceniania pytań (klucz kodowy). Koordynatorzy krajowi zgłaszają uwagi do klucza kodowego i wypracowywana jest ostateczna wersja klucza kodowego, która jest tłumaczona na języki krajowe i dostosowywana do krajowych warunków.
W każdej edycji badania wykorzystuje się niemal 200 pytań. Pytania opierają się na 6 tekstach literackich i 6 użytkowych. Część z nich sprawdza umiejętność wyszukiwania informacji i prostego wnioskowania, część – umiejętność interpretowania i oceniania tekstu. Większość pytań wykorzystywanych w teście PIRLS to pytania otwarte, na które uczeń udziela jedno lub kilkuzdaniowej odpowiedzi. Test osiągnięć dzieli się na zestawy zawierające dwa teksty (jeden literacki i jeden informacyjny) i pytania z nimi związane. Zestawy są losowo przydzielane uczniom według z góry ustalonej procedury. Każdy uczeń wypełnia tylko jeden taki zestaw.
Cel badania dotyczący śledzenia trendu, czyli zmian w poziomie osiągnięć uczniów, wymaga, by wyniki pomiarów w kolejnych edycjach mogły zostać umieszczone na tej samej skali. Można to uzyskać tylko, jeśli kolejne cykle badania mają wspólne pytania, co obowiązuje w badaniu PIRLS. Ponad połowa stosowanych w badaniu tekstów i zadań, to pytania wykorzystywane w poprzednich edycjach badania. Wielokrotne wykorzystywanie tych samych zadań wymaga zachowania najwyższych standardów poufności przez krajowe zespoły badawcze.
Drugi rodzaj narzędzi badawczych wykorzystywany w badaniu to ankiety. Dane, których dostarczają, dają wgląd w kontekst osiągnięć szkolnych. Dyrektor szkoły wypełnia ankietę o zasobach swojej szkoły, zasadach pracy dydaktycznej i wychowawczej oraz o własnej roli zawodowej. Nauczyciele badanych oddziałów klasowych wypełniają ankietę o kulturze swojej szkoły, organizacji swojego oddziału, programie i metodach nauki czytania, sposobach oceniania osiągnięć, a także o swoim wykształceniu i karierze zawodowej.
Rodzice lub prawni opiekunowie uczniów objętych badaniem wypełniają ankietę dotyczącą rozwoju dziecka, wczesnej edukacji domowej, zasobów wspierających uczenie się dziecka (z obowiązkowym we wszystkich badaniach osiągnięć pytaniem o liczbę książek w domu) i opinii o szkole ich dziecka. Ważną częścią ankiety są pytania o wykształcenie, zawód i pozycję na rynku pracy – pozwalają one zbudować wskaźnik statusu socjoekonomicznego (SES) rodziny. Uczeń odpowiada na pytania ankiety o zasoby domowe wspierające uczenie się, zwyczaje panujące w jego szkole, a także metody nauczania. Istotną część stanowią również skale postaw wobec szkoły oraz kształcenia umiejętności czytania.
Wszystkie kraje biorące udział w edycji PIRLS 2026 są zobowiązane do przeprowadzenia badania w formie cyfrowej. Część krajów zdecydowała się na realizację badania w tym kształcie (digitalPIRLS) już w poprzednich cyklach. Polska po raz pierwszy przystąpi do badania w takiej formule w edycji 2026. W wersji komputerowej wykorzystane będą zadania z poprzednich edycji PIRLS, które zostały przeniesione z papierowych wersji zeszytów testowych. Nowa formuła zadań, wykorzystująca formę cyfrową otwiera nowe możliwości pomiaru umiejętności uczniów i pozwala na większą atrakcyjność prezentowanych uczniowi zadań, a tym samym na większe zaangażowanie w ich rozwiązywanie.
PIRLS to badanie realizowane na reprezentatywnej próbie losowej, co oznacza, że wnioski dotyczące pomiaru wykonanego w badaniu mogą być uogólniane, przy zachowaniu reguł wnioskowania statystycznego, na populację czwartoklasistów w każdym kraju realizującym badanie. Podobnie jak wszystkie działania realizacyjne, w celu zapewnienia porównywalności wyników badania, dobór próby w każdym kraju jest realizowany w oparciu o wystandaryzowane procedury międzynarodowe. W Polsce operat losowania tworzony jest w oparciu o dane z Systemu Informacji Oświatowej. Operat składa się ze szkół podstawowych, w których w klasie czwartej uczy się co najmniej jeden uczeń. Zgodnie z procedurami międzynarodowymi z operatu wyłączane są szkoły specjalne, szkoły, w których językiem wykładowym jest język inni niż polski oraz szkoły, w których w czwartej klasie uczy się mniej niż 5 uczniów. Te trzy kategorie wyłączeń skutkują usunięciem z operatu losowania około 2-2,5% czwartoklasistów. Schemat doboru próby uczniów opiera się na dwustopniowym doborze warstwowym z zastosowaniem losowania systematycznego. Operat jest podzielony na warstwy – w Polsce warstwami są cztery kategorie wielkości miejscowości, w której znajduje się szkoła. W każdej warstwie losuje się odpowiednią liczbę szkół – każda szkoła ma szansę trafić do próby z prawdopodobieństwem proporcjonalnym do liczby czwartoklasistów, którzy się w niej uczą. Dla każdej szkoły wylosowanej do próby głównej losowane są dwie szkoły zastępcze, na wypadek, gdyby dyrekcja szkoły z próby głównej odmówiła udziału w badaniu. Po uzyskaniu zgody na badanie od dyrekcji szkoły tworzona jest lista oddziałów klasy czwartej. Gdy w szkole jest jeden lub dwa oddziały klasy czwartej, wszyscy uczniowie tych oddziałów uzyskują zaproszenie do badania. Gdy oddziałów jest więcej, odbywa się losowanie dwóch oddziałów do badania. Losowanie szkół realizowane jest przez instytucję należącą do konsorcjum międzynarodowego – Statistics Canada, losowanie uczniów odbywa się w Instytucie Badań Edukacyjnych przy użyciu specjalnego oprogramowania przygotowanego przez konsorcjum międzynarodowe. Na każdym etapie działań realizacyjnych, w trakcie których gromadzone są dane, odbywa się to w oparciu o formularze przygotowane przez konsorcjum międzynarodowe i zaadaptowane przez krajowy zespół PIRLS do warunków polskich.
Jedną z miar jakości badania jest poziom realizacji próby (response rate), czyli odsetek uczniów, którzy wzięli udział w badaniu w odniesieniu do wszystkich uczniów wylosowanych do badania. W badaniu PIRLS definiuje się go bardziej szczegółowo, jako ważony iloraz liczby uczniów biorących udział w badaniu do liczby uczniów ze wszystkich szkół i oddziałów wylosowanych do badania z uwzględnieniem szkół z prób rezerwowych oraz faktu, że niektórzy uczniowie mogą zostać wyłączeni z wyników badania ze względów obiektywnych. Standardy techniczne badania zakładają możliwość wyłączenia ucznia z badania (tzw. wyłączenie wewnątrzszkolne, w odróżnieniu od opisanych powyżej wyłączeń na poziomie szkół). Wyłączeniu mogą podlegać osoby, które nie posługują się językiem, w stopniu wystarczającym do udziału w badaniu, są osobami z niepełnosprawnością funkcjonalną lub intelektualną, która uniemożliwia wypełnienia narzędzi badawczych, a także są „długotrwale nieobecne” w szkole (nieobecni w szkole przez wiele tygodni poprzedzających badanie). Zgodnie z ideą edukacji inkluzywnej uczniowie niepełnosprawni są w Polsce zachęcani do wzięcia udziału w badaniu, ale ich udział nie jest uwzględniany w podstawie do obliczania wskaźnika poziomu realizacji (response rate) i w wyliczeniach wyników badania.
Wartość wskaźnika poziomu realizacji próby uznaje się za zadowalającą, gdy w badaniu wzięło udział co najmniej 85% wylosowanych szkół, co najmniej 95% wylosowanych oddziałów w szkołach i co najmniej 85% uczniów w oddziałach, które przystąpiły do badania. Jeżeli kraj nie spełnia tych warunków, sprawdza się, czy ogólny poziom realizacji badania wśród uczniów wyniósł co najmniej 75%. Kraje, które nie spełniają żadnego z tych dwóch kryteriów jakości badania, oznaczane są przy prezentacji wyników specjalnymi adnotacjami w związku z gorszą jakością realizacji, a co za tym idzie mniejszą dokładnością oszacowań i mniejszą pewnością przy wnioskowaniu na podstawie z badania.
Badanie w szkołach przeprowadzane jest wiosną w ustalonym z każdą szkołą, dogodnym dla niej terminie. Na około 3 tygodnie przed ustalonym terminem badania rodzice lub opiekunowie prawni uczniów z wylosowanych oddziałów otrzymują pisemną informację o badaniu PIRLS, formularz zgody na udział dziecka w badaniu oraz ankietę rodzica do wypełnienia. W tym samym terminie dyrektorzy szkół i nauczyciele wylosowanych oddziałów otrzymują przeznaczone dla nich dane umożliwiające wypełnienie ankiet w formie online. Wypełnione formularze i ankiety rodziców w zaklejonych kopertach są zbierane przez koordynatorów szkolnych (są to zwykle wyznaczeni do tego przez dyrektora szkoły nauczyciele) i przekazywane ankieterowi w dniu badania uczniów w szkole. Sesja testowa zaczyna się od poinformowania uczniów o międzynarodowym charakterze badania oraz wyznaczenia uczniom miejsc przy odpowiednich komputerach. Badanie zaczyna się od Wskazówek. Ankieter czyta je głośno wraz z uczniami i sprawdza, czy przykładowe zadania i sposób udzielania odpowiedzi są zrozumiałe dla uczniów. Następnie dzieci przystępują do pracy nad pierwszą częścią testu, a po 15-minutowej przerwie – nad drugą. Nad każdą częścią mogą pracować nie dłużej niż 40 min. Po zakończeniu sesji testowej i dłuższej przerwie dzieci wypełniają ankietę ucznia. Otwierają ją Wskazówki, które prowadzący badanie czyta wraz z dziećmi, śledzi ich odpowiedzi na przykładowe pytania i udziela dodatkowych wyjaśnień, gdy coś jest niezrozumiałe. W razie potrzeby procedura zezwala na głośne czytanie uczniom pytań ankiety. Jeśli w badaniu weźmie udział mniej niż 90 proc. uczniów, ankieter w porozumieniu z zespołem badawczym PIRLS w IBE organizuje sesję uzupełniającą dla uczniów nieobecnych w dniu sesji głównej. Po zakończeniu sesji ankietowej ankieter dziękuje uczniom za udział w badaniu. Na tym kończy się procedura realizacji badania w szkole.
Po zakończeniu realizacji badania w szkołach papierowe materiały badawcze są przewożone do IBE, a pliki wynikowe z komputerów zawierające odpowiedzi uczniów przesyłane są na serwer międzynarodowy. Odpowiedzi z ankiet rodziców są wpisywane do bazy danych przygotowanej przez międzynarodowe konsorcjum. Odpowiedzi uczniów na zadania otwarte są oceniane (kodowane) według klucza kodowego przez przeszkolonych specjalistów w specjalnie przygotowanym do tego oprogramowaniu. Po wprowadzeniu wszystkich danych z ankiet rodziców i zakończeniu procesu kodowania następuje weryfikacja baz danych i następnie są one przesyłane do konsorcjum.
Z doborem próby nierozerwalnie związany jest sposób analizowania danych z badania. Ze względu na to, że schemat doboru próby zakłada nierówne prawdopodobieństwa trafienia uczniów z całej populacji do próby, w trakcie analiz używa się specjalnie wyliczonych wag, uwzględniających prawdopodobieństwa wylosowania szkół, prawdopodobieństwa wylosowania oddziałów oraz poprawki związane ze wskaźnikami poziomu realizacji próby. Po zastosowaniu ważenia danych wyniki uzyskane na próbie uczniów mogą być uogólniane na populację czwartoklasistów w Polsce. Uogólnienie musi uwzględniać również wielkość błędów losowych, która nie są znana, jednak może zostać oszacowana zgodnie z regułami rachunku prawdopodobieństwa. Wokół oszacowań (np. obliczonej średniej lub odsetka) wylicza się tzw. przedziały ufności, czyli wielkość, której błąd losowy nie przekroczy z określonym prawdopodobieństwem (np. przy 95% prawdopodobieństwie mówimy o 95% poziomie ufności). Schemat zastosowany w doborze próby jest złożony. Przy wyliczaniu błędów standardowych, a co za tym idzie przy wyliczaniu długości przedziałów ufności, należy zatem uwzględnić również specyficzne dla tego typu schematów techniki obliczeniowe. W badaniu PIRLS stosuje się technikę Jackknife Repeated Replication (JRR), która pozwala na wyznaczanie przedziałów ufności oraz weryfikację hipotez statystycznych z uwzględnieniem specyfiki przyjętego schematu doboru próby. Oprogramowanie analityczne rozwijane na potrzeby obliczeń statystycznych w badaniu PIRLS ma zaimplementowane wszystkie powyższe rozwiązania. Są one obecne również w przeglądarce danych na stronie IEA, w której nawet mniej zaawansowany użytkownik może zaprojektować swoją analizę.
Szczególne znaczenie w międzynarodowych badaniach osiągnięć uczniów ma sposób wyliczania wyników uczniów w testach osiągnięć. W PIRLS wyniki przypisywane są poszczególnym uczniom na podstawie procedury skalowania, uwzględniającej liczbę poprawnie rozwiązanych zadań oraz ich trudność. Uczniowie rozwiązują różne zestawy zadań, które są losowo przydzielone do kilkunastu (tzw. matrix sampling) rozłożonych w kilkunastu zeszytach testowych. Zaletą takiego rozwiązania jest możliwość wykorzystania znacznie większej liczby różnorodnych zadań, niż gdyby wszyscy uczniowie mieli rozwiązywać te same zadania. Jest to też sposób zapewnienia możliwości porównywania wyników różnych edycji badania, pomimo że jedynie część zadań (tzw. zadania kotwiczące) powtarzanych jest w kolejnych edycjach. Oszacowanie wyników na podstawie danych z tak skonstruowanego badania umożliwiają techniki teorii odpowiedzi na pytanie testowe (Item Response Theory, IRT) – rodzina narzędzi statystycznych służących do modelowania zmiennych nieobserwowalnych o charakterze ciągłym na podstawie wskaźników – w teście PIRLS poprawnych (a w przypadku niektórych zadań też częściowo poprawnych) odpowiedzi na zadania. Na podstawie wszystkich odpowiedzi uczniów szacuje się parametry zadań (w tym ich trudność) oraz parametry rozkładu poziomu umiejętności w całej populacji. W badaniu PIRLS, podobnie jak w innych badaniach międzynarodowych, analizy wyników przeprowadza się z zastosowaniem wartości zmiennych wygenerowanych losowo rozkładu umiejętności ucznia oszacowanego na podstawie jego odpowiedzi w zadaniach, tzw. „wartości prawdopodobne” (Plausible Values). Dzięki temu analizy uwzględniają błąd pomiaru związany z niedokładnością narzędzi testowych.
Skale umiejętności będące efektem badania PIRLS nie mają obiektywnego punktu zerowego. Wyniki pomiaru umiejętności podawane są na wystandaryzowanej skali o średniej 500 i odchyleniu standardowym 100, wyliczonej dla krajów uczestniczących w pierwszej edycji badania, która jest punktem odniesienia w kolejnych edycjach badania. Użycie „zadań kotwiczących” o trudności oszacowanej już w poprzednich edycjach badania PIRLS pozwala zakotwiczyć skale PIRLS względem wcześniejszych edycji badania, a tym samym osiągnąć porównywalność wyników kolejnych edycji. Dzięki temu oprócz porównań międzykrajowych możliwe jest również monitorowanie, jak wyniki danego zmieniają się w czasie, o ile oczywiście kraj wziął udział w co najmniej dwóch edycjach badania. Używane w prezentacji wyników badania pojęcie średniej osiągnięć uczniów jest zgodne z intuicyjnym rozumieniem średniej, zwanej inaczej wartością przeciętną. Odchylenie standardowe jest miarą zróżnicowania. Niezwykle ważne w analizach jest monitorowanie zróżnicowania osiągnięć uczniów w kolejnych edycjach lub porównania zróżnicowania wyników w różnych grupach w ramach jednej edycji.
Konsorcjum międzynarodowe analizuje dane, które spłynęły z poszczególnych krajów. Analizy trwają około roku. Kolejne pół roku jest poświęcone na przygotowanie materiałów z badania (raport, odtajnione narzędzia badawcze, bazy i tabele wynikowe). W tym samym czasie krajowe zespoły badawcze przygotowują własne raporty. Ogłoszenie wyników następuje w listopadzie lub grudniu, rok po zakończeniu badania głównego w szkołach i jest organizowane przez IEA. Upublicznia się wtedy wyniki uzyskane przez uczniów wszystkich krajów biorących udział w badaniu. Jednocześnie zespoły krajowe organizują własne konferencje prasowe, seminaria i konferencje służące omówieniu wyników badania. W kolejnym roku konsorcjum badawcze przygotowuje również publikacje prezentujące pogłębione analizy wybranych tematów.