
Ten tydzień w technologii był o tym, co zwykle dzieje się „pod spodem” największych nagłówków: o infrastrukturze (centra danych, klastry obliczeniowe, satelity na orbicie), o regulacjach i bezpieczeństwie (podatności, wymagania systemowe, eksport chipów) oraz o tym, jak AI przestaje być dodatkiem, a staje się rdzeniem działań państw i firm. Poniżej zebrałem najważniejsze wydarzenia z Polski i ze świata, które realnie mogą przełożyć się na rynek, szkoły, administrację, biznes i codzienne korzystanie z usług cyfrowych.
W połowie tygodnia zainaugurowano ogólnopolski projekt edukacyjny ZbadAI realizowany przez Centrum Nauki Kopernik i finansowany ze środków Ministra Edukacji. To ważne przesunięcie akcentu: zamiast udawać, że AI w szkołach „jeszcze nie istnieje”, projekt stawia na praktyczną edukację i odpowiedzialne korzystanie z narzędzi, które i tak już są w rękach uczniów i nauczycieli. Kluczowe jest też to, że nie chodzi wyłącznie o „obsługę aplikacji”, tylko o zrozumienie mechanizmów, ograniczeń i ryzyk: skąd biorą się błędy modeli, czym jest halucynowanie, dlaczego odpowiedź może brzmieć pewnie, a być fałszywa, i jak nie wpaść w pułapkę bezrefleksyjnego kopiowania.
W praktyce ZbadAI może mieć wpływ na dwie rzeczy naraz: na kompetencje (krytyczne myślenie, weryfikacja informacji, umiejętność formułowania poleceń i pytań) oraz na kulturę pracy w szkole (jak zadawać prace domowe i projekty, aby AI nie była skrótem „na lenia”, tylko narzędziem wspierającym proces uczenia się). Wątek finansowania i partnerstwa z instytucją publiczną jest tu istotny, bo zapowiada skalowanie i stabilność działań, a nie jednorazową kampanię. Jeśli program dobrze „siądzie” w szkołach, to 2026 może być pierwszym rokiem, w którym edukacja o AI zacznie doganiać tempo realnego użycia AI przez młodzież.
CERT Polska opublikował komunikat o krytycznej podatności CVE-2025-20393 w Cisco AsyncOS Software, wskazując, że luka jest wykorzystywana w atakach. To nie jest „kolejna łatka do zrobienia, jak będzie czas” – mowa o obszarze infrastruktury, który często stoi na styku z pocztą i ruchem webowym w organizacjach. Jeśli urządzenie lub usługa pełni rolę bramy (np. do obsługi poczty i filtracji), konsekwencje udanego ataku potrafią iść daleko: od przechwytywania komunikacji, przez trwałą obecność atakującego w sieci, po eskalację do kolejnych systemów.
W takich sytuacjach najważniejsze są trzy elementy: szybkie rozpoznanie ekspozycji (czy usługa jest wystawiona na świat i jak), wdrożenie mitigacji zaleconych przez producenta oraz sprawdzenie śladów ewentualnej kompromitacji. W tym tygodniu temat nabrał dodatkowego ciężaru, bo pojawiły się też doniesienia branżowe o aktywnej eksploatacji. Dla wielu organizacji to brutalnie praktyczny sprawdzian: czy mają monitoring, procedury incydentowe, kontakt do zespołów reagowania i czy potrafią działać „tu i teraz”, bez czekania na idealne okienko serwisowe. W skrócie: technologia jest tu mniej ważna niż dojrzałość operacyjna.
W tym tygodniu pojawiła się oficjalna informacja o zmianie minimalnych wymagań aplikacji mObywatel dla urządzeń Apple: jeśli ktoś korzysta z iOS 15 lub starszego, od 7 stycznia 2026 aplikacja ma przestać być wspierana i docelowo przestanie działać. To wydarzenie, które na pierwszy rzut oka wygląda jak „z przypisu”, a w praktyce dotyczy zaufania do usług państwa w telefonie. mObywatel to już nie ciekawostka, tylko narzędzie codzienne: dokumenty, usługi i procesy, które użytkownicy chcą mieć zawsze pod ręką. Taki komunikat uderza najbardziej w osoby z bardzo starymi urządzeniami (często sprawnymi, ale bez możliwości aktualizacji systemu do nowszej wersji), a więc w grupę, która nierzadko ma też najniższą tolerancję na techniczne komplikacje.
W tle jest logika bezpieczeństwa: kiedy system operacyjny jest poza wsparciem, rośnie ryzyko luk, których nikt już nie załata, a aplikacja obsługuje wrażliwe procesy i dane. Dla państwowego rozwiązania to szczególnie delikatne – z jednej strony trzeba ograniczać powierzchnię ataku, z drugiej nie można „wykluczyć cyfrowo” części użytkowników bez jasnej komunikacji i sensownego okresu przejściowego. Ten tydzień ustawia więc agendę na przełom roku: urzędy, infolinie, banki i instytucje, które kierują ludzi do mObywatela, mogą dostać więcej pytań i frustracji, a rynek wtórny starszych iPhone’ów może odczuć nagłe „zderzenie z rzeczywistością” po 7 stycznia.
Wrocław i Gliwice dorzuciły w tym tygodniu mocny punkt do mapy polskiego „space techu”: KP Labs i Scanway ogłosiły porozumienie o współpracy (MoU) dotyczące ładunków optycznych i przetwarzania danych na orbicie dla przyszłych misji kosmicznych. Z punktu widzenia innowacji to ciekawy trend: przejście od „zbieramy dane w kosmosie, ściągamy na Ziemię i dopiero tu analizujemy” do modelu, w którym coraz więcej dzieje się już na orbicie. To skraca czas reakcji (np. przy obserwacji Ziemi), oszczędza pasmo, a czasem pozwala w ogóle zrobić rzeczy, które wcześniej były nieopłacalne.
W praktyce współpraca optyki (sensory, instrumenty obrazujące) z „edge computingiem” na orbicie (wstępne przetwarzanie, selekcja, kompresja, analiza) to temat, który rośnie globalnie – bo konstelacje satelitarne i liczba misji rosną szybciej niż zasoby do obsługi danych na Ziemi. Dla Polski to ważne także wizerunkowo: mniej „podwykonawstwa”, więcej budowania kompetencji systemowych i produktów, które mogą trafić do międzynarodowych programów. Jeżeli takie partnerstwa przerodzą się w realne kontrakty i lotne demonstratory technologii, to może to być jeden z tych tygodni, do których będzie się wracać jako do momentu „spinania” kompetencji w łańcuch wartości.
Wrocławska spółka QNA Technology zebrała 12,5 mln zł na przyspieszenie komercjalizacji niebieskich kropek kwantowych – materiału kluczowego dla wyświetlaczy nowej generacji. Niby „materiałoznawstwo”, ale w praktyce: realna gra o przewagi w elektronice użytkowej, od telewizorów po urządzenia mobilne. Niebieski element w technologii kropek kwantowych to jeden z najtrudniejszych kawałków układanki, a udane wdrożenia mogą oznaczać lepszą jakość obrazu i efektywność energetyczną. To nie jest „seksi” jak aplikacje, ale to właśnie takie deep techy często decydują, kto zgarnia marżę w długim terminie – bo jeśli ktoś kontroluje krytyczny materiał, kontroluje też warunki współpracy z producentami.
Ważna jest tu też forma: pozyskanie kapitału na komercjalizację to sygnał, że projekt wychodzi poza fazę laboratoryjną i mierzy się z wyzwaniami produkcyjnymi, powtarzalnością parametrów, łańcuchem dostaw oraz walidacją przez klientów. Ten tydzień pokazuje więc, że w Polsce wciąż jest przestrzeń na finansowanie trudniejszych technologii, a nie tylko na „kolejne SaaS-y”. Jeśli QNA dowiezie skalowanie i pokaże, że potrafi wejść w przemysłowe wdrożenia, to może to być jedna z ciekawszych historii polskiej innowacji na styku nauki, inżynierii i globalnych rynków elektroniki.
Nvidia ogłosiła przejęcie SchedMD, firmy rozwijającej Slurm – jeden z najważniejszych, otwartych systemów do zarządzania kolejkami zadań w klastrach HPC i coraz częściej także w infrastrukturze AI. To wydarzenie jest znaczące, bo pokazuje kierunek: Nvidia nie chce być tylko dostawcą GPU i narzędzi do trenowania modeli, ale chce wpływać na to, jak obciążenia są planowane, uruchamiane i optymalizowane w skali całych centrów danych. Slurm to w praktyce „dyspozytor” zasobów: decyduje, kto dostaje kiedy moce, jak dzielone są węzły i jak wygląda efektywność wykorzystania infrastruktury. A przy obecnych kosztach treningu i inferencji AI każdy procent lepszego wykorzystania sprzętu to realne pieniądze.
Istotny jest też wątek open source: Nvidia deklaruje utrzymanie Slurma jako projektu otwartego i neutralnego. Rynek będzie to uważnie obserwował, bo społeczność HPC jest wyczulona na próby przechwytywania ekosystemu. Z drugiej strony, wejście dużego gracza może oznaczać szybszy rozwój, lepsze integracje i długoterminowe finansowanie. W szerszym obrazie to kolejny krok w budowaniu „pełnego stosu” dla AI: od hardware’u, przez biblioteki i modele, po warstwę orkiestracji pracy w klastrze. I to jest trend tygodnia: innowacja dzieje się nie tylko w samych modelach, ale w narzędziach, które pozwalają te modele produkować i utrzymywać taniej.
Reuters opisał start międzyagencyjnego procesu przeglądu, który może otworzyć drogę do pierwszych dostaw chipów Nvidia H200 do Chin. To wydarzenie ma ciężar geopolityczny, ale też bardzo praktyczny: pokazuje, że dostęp do zaawansowanych akceleratorów AI staje się instrumentem polityki przemysłowej, a nie wyłącznie sprawą handlu. Sama procedura – przekazanie wniosków licencyjnych do przeglądu między resortami – sygnalizuje, że temat nie jest „deklaracją medialną”, tylko realnym procesem administracyjnym, z terminami i odpowiedzialnością. W tle są argumenty o utrzymaniu przewagi technologicznej (sprzedaż może osłabiać motywację do rozwijania alternatyw) kontra ryzyko wzmocnienia potencjału AI i wojskowego Chin.
Dla branży ważne są też konsekwencje wtórne: jeśli taki kanał sprzedaży się otworzy, rynek zacznie natychmiast dyskontować zmiany w popycie, w planach produkcyjnych, w kontraktach chmurowych i w strategiach konkurentów. Jeśli się nie otworzy – presja na obejścia (szary rynek, dostęp przez ośrodki poza Chinami, trening za granicą) będzie rosła, co również już obserwowano. Ten tydzień dobitnie pokazuje, że „innowacja” w AI jest dziś zależna od decyzji administracyjnych równie mocno, jak od talentu inżynierów. A to oznacza więcej niepewności i więcej nerwowości w planowaniu inwestycji w moce obliczeniowe.
Według informacji cytowanych przez Reuters, globalny rynek transakcji dotyczących centrów danych osiągnął w 2025 roku rekordowe poziomy, napędzane „głodem mocy obliczeniowej” związanym z AI. To jest jeden z tych tematów, które nie brzmią jak „przełom technologiczny”, a jednak przesądzają o tym, kto będzie miał dostęp do infrastruktury i na jakich warunkach. Centra danych stają się aktywem strategicznym: nie tylko dla chmur publicznych, ale też dla firm budujących własne zaplecze pod modele, dla dostawców usług inferencji, a nawet dla państw myślących o suwerenności cyfrowej. Wzrost aktywności private equity w tym segmencie dodatkowo podkręca konkurencję o dobre lokalizacje, energię i pozwolenia.
W praktyce oznacza to, że innowacja w AI coraz bardziej zależy od „ziemskich” ograniczeń: dostępności prądu, sieci, chłodzenia, działek i kompetencji operacyjnych. W tym tygodniu temat rekordowych transakcji jest sygnałem, że branża uznaje ten wyścig za długoterminowy. Jeśli ktoś dziś kupuje lub konsoliduje data center, to zakłada, że popyt na AI nie jest sezonową falą, tylko nową warstwą gospodarki cyfrowej. Dla użytkowników końcowych to może oznaczać z czasem zarówno lepszą dostępność usług AI, jak i wyższe ceny tam, gdzie rynek infrastruktury jest „wąskim gardłem”. A dla firm technologicznych: większą presję na efektywność energetyczną i optymalizację obciążeń.
Google ogłosił wprowadzenie modelu Gemini 3 Flash, kładąc nacisk na szybkość i zastosowania „codzienne”: planowanie, pisanie, naukę, a także integracje w aplikacjach. Ten ruch jest istotny, bo rynek dojrzał do prostej prawdy: nie zawsze potrzebujesz największego modelu, częściej potrzebujesz modelu, który działa szybko, przewidywalnie i tanio. Flash wpisuje się w trend „frontier intelligence, ale zoptymalizowane” – czyli modele, które mają wystarczająco mocne rozumowanie i multimodalność, ale są skrojone pod realne wdrożenia, a nie tylko pod benchmarki. To może przyspieszyć adopcję AI w mniejszych firmach, które do tej pory liczyły koszty na tokeny i czasy odpowiedzi.
Równolegle pojawiła się informacja, że Google nie kończy jeszcze w 2025 procesu zastępowania Asystenta Google przez Gemini na Androidzie – pełne przejście ma rozciągnąć się na 2026. To też jest ważny sygnał: „AI-asystent” to nie tylko model, ale cała warstwa niezawodności, uprawnień, integracji i oczekiwań użytkowników. Opóźnienie sugeruje, że nawet przy postępie modeli wciąż trudno jest dowieźć stabilne doświadczenie na miliardach urządzeń, w setkach języków i przypadków użycia. Dla rynku to lekcja: innowacja w AI to maraton wdrożeniowy, a nie tylko spektakularne premiery.
Reuters opisał podpisanie przez Departament Energii USA porozumień z 24 organizacjami (w tym największymi dostawcami chmury i sprzętu oraz firmami AI), aby rozwijać program Genesis Mission. To wyraźny sygnał, że państwo traktuje AI nie jako „sektor gospodarki”, ale jako narzędzie wzmacniania bezpieczeństwa, energii i przewagi naukowej. Lista uczestników robi wrażenie, bo łączy klasycznych gigantów (chmura, chipy, HPC) z firmami stricte AI oraz podmiotami dostarczającymi wyspecjalizowane układy przydatne w obliczeniach naukowych. Kluczowe jest też wskazanie obszarów: od energetyki jądrowej i obliczeń kwantowych, po robotykę i łańcuchy dostaw.
To wydarzenie jest istotne również dla reszty świata, bo pokazuje model: państwowe laboratoria i instytucje badawcze nie będą już budować wszystkiego samodzielnie, tylko będą „spinać” ekosystem przemysłowy z celami publicznymi. W długim horyzoncie może to przyspieszać transfer technologii (z laboratoriów do rynku) i skracać cykl od hipotezy do wdrożenia. A w krótkim – zwiększa presję na standardy bezpieczeństwa i kontrolę dostępu do modeli oraz infrastruktury, bo jeśli AI wchodzi do krytycznych zastosowań, rośnie ryzyko nadużyć. Ten tydzień ustawia więc ramę: innowacja w AI będzie coraz częściej „projektem narodowym”, nie tylko rynkowym.
Europejska Agencja Kosmiczna i Arianespace poinformowały o udanym wyniesieniu pary satelitów Galileo przy użyciu Ariane 6. To wydarzenie ma znaczenie wykraczające poza sam start rakiety: dotyczy odporności i autonomii europejskiej infrastruktury nawigacyjnej oraz niezależnego dostępu do przestrzeni kosmicznej. Galileo jest krytycznym elementem usług pozycjonowania i synchronizacji czasu – a więc fundamentem dla transportu, logistyki, telekomunikacji, bankowości, energetyki i wielu usług cyfrowych. Gdy taki system działa stabilnie, jest „niewidzialny”; kiedy go brakuje lub jest opóźniany, konsekwencje potrafią być kosztowne.
Z perspektywy innowacji ważne jest też to, że Ariane 6 ma być filarem europejskich zdolności wynoszenia ładunków. Udane misje w tym segmencie wzmacniają pewność planowania: instytucje i firmy mogą układać harmonogramy, podpisywać kontrakty i rozwijać produkty zależne od danych satelitarnych. Ten tydzień pokazuje więc, że innowacje w Europie nie kończą się na software’ze i AI – równie ważna jest infrastruktura krytyczna, bez której nie ma ani gospodarki opartej na danych, ani cyfrowej odporności.