Polskie modele AI powstały z myślą o pracy w języku polskim i w polskim kontekście. Liczą się tu poprawność językowa, naturalny styl, znajomość lokalnych realiów oraz możliwość wykorzystania tych modeli w administracji i biznesie. Bielik stał się jednym z najważniejszych polskich projektów otwartych modeli językowych, a PLLuM – za który odpowiadam – jest projektem rozwijanym na potrzeby polskich instytucji i firm.
Rankingi nie mówią całej prawdy
W ostatnich dniach sporo uwagi przyciągnęły testy, w których polskie modele wypadły słabiej od globalnych narzędzi. Taki wynik łatwo zamienić w prostą opowieść o przewadze gigantów, ale taka interpretacja pomija najważniejszy kontekst. W jednym zestawieniu znalazły się rozwiązania funkcjonujące w zupełnie innej skali, rozwijane przy innych budżetach i projektowane do innych zastosowań.
Dodatkowo część konkurencyjnych narzędzi korzysta z zewnętrznych źródeł wiedzy, podczas gdy polskie modele były oceniane przede wszystkim na podstawie wiedzy zaszytej w modelu podczas treningu.
To sprawia, że sam ranking mówi mniej, niż mogłoby się wydawać na pierwszy rzut oka. Porównanie gotowych usług globalnych korporacji z dużo mniejszymi modelami rozwijanymi lokalnie daje efekt widowiskowy, ale słabiej pokazuje realną wartość tych narzędzi. W przypadku polskiej AI ważniejsze od miejsca w ogólnym zestawieniu pozostaje pytanie, do czego te modele zostały stworzone i gdzie przynoszą największą korzyść.
Tu odpowiedź jest dość konkretna: mają oferować wysoką jakość języka polskiego w swojej klasie, rozsądny koszt wdrożenia, większą kontrolę nad danymi i możliwość działania na własnej infrastrukturze. Dla wielu firm i instytucji właśnie te cechy mają największe znaczenie. W praktyce oznacza to technologię, którą da się dopasować do własnych procesów, uruchomić bliżej danych i rozwijać zgodnie z własnymi potrzebami.
GUS podał nowe dane o płacach w Polsce. Padła konkretna kwota, jest rozczarowanie
Ten kierunek już znalazł potwierdzenie we wdrożeniach. Od stycznia tego roku użytkownicy mObywatela mają do dyspozycji asystenta AI, opartego na naszym modelu, wspierającego sprawy urzędowe i korzystanie z usług publicznych.
Małe modele i ich praktyczna wartość
To właśnie w takich zastosowaniach widać sens małych modeli. Liczą się użyteczność, bezpieczeństwo, koszt i możliwość dostrojenia systemu do konkretnego zadania. W wielu miejscach na rynku właśnie taki zestaw cech przesądza o wyborze technologii znacznie mocniej niż wynik w efektownym teście porównawczym.
Podobnie wygląda sytuacja Bielika. O klasie projektu świadczy także to, że został pokazany na GTC 2026, największej dorocznej konferencji organizowanej przez NVIDIA. Taka obecność oznacza, że projekt zyskał zauważalność poza Polską i trafił do szerszego obiegu technologicznego.
Jest jeszcze jeden powód, dla którego rozwijanie własnych modeli ma znaczenie. Najwięksi gracze AI inwestują dziś gigantyczne pieniądze w infrastrukturę, centra danych i ekspansję rynkową. Obecne ceny wielu usług są elementem walki o użytkownika i o przyszłą dominację. W dłuższej perspektywie własna technologia daje firmom i instytucjom większą niezależność od zewnętrznych dostawców oraz większą odporność na przyszłe wzrosty kosztów i marż.
Czy Polska może doprowadzić do likwidacji ETS? Doradczyni prezydenta: To błędne koło
Dlatego słabszy wynik polskich modeli językowych w takim zestawieniu nie podważa sensu ich rozwoju. Przeciwnie – pokazuje, że warto oceniać je według celu, do którego zostały stworzone. W swojej kategorii mają dostarczać dobrą polszczyznę, prywatność, niski koszt wdrożenia i elastyczność. Z tej perspektywy są potrzebnym elementem krajowego ekosystemu AI i rozsądną inwestycją na przyszłość.

