
Miniony tydzień w technologiach należał do „ciężkiego kalibru”: strategiczne umowy na miliardy dolarów w infrastrukturze AI, ostre przyspieszenie wyścigu w chipach, nowe produkty i platformy dla pracy z AI w firmach, ofensywa Europy w kierunku szybszej adopcji sztucznej inteligencji, a w tle gwałtowne przetasowania w łańcuchach dostaw – od rzadkich ziem po kontrole importu układów na chińskich portach. Poniżej dziesięć najważniejszych wydarzeń tygodnia, każde rozwinięte szerokim kontekstem – co faktycznie się stało, dlaczego to ma znaczenie i jakie mogą być praktyczne konsekwencje dla firm technologicznych, inwestorów i instytucji publicznych w Polsce i w Europie.
W poniedziałek AMD ogłosiło przełomową umowę z OpenAI na wieloletnie dostawy procesorów akcelerujących sztuczną inteligencję. Wartość kontraktu nie została podana wprost, ale komunikacja spółek i reakcja rynku sugerują ogromną skalę: mowa o potencjale „dziesiątek miliardów dolarów” w ujęciu wieloletnim oraz o budowie (po stronie OpenAI) infrastruktury sięgającej w pierwszym etapie gigawata mocy obliczeniowej, w której sprzęt AMD będzie jednym z filarów. Kluczowy jest też nietypowy komponent finansowy – prawo do objęcia przez OpenAI do 10% akcji AMD w formie warrantów, powiązane z kamieniami milowymi (m.in. terminowa dostawa kolejnej generacji GPU MI-serii, w tym układów z rodziny MI450) oraz poziomami kursu akcji. Tydzień przyniósł zatem coś więcej niż zwykłe „zakupy GPU”: to architektoniczny wybór, który równoważy dotychczasową dominację Nvidii w centrach danych AI. Z perspektywy klienta-hiperskalera (tu: OpenAI) posiadanie alternatywy o skali przemysłowej zmniejsza ryzyka zakupowe, wzmacnia pozycję negocjacyjną i potencjalnie obniża TCO w horyzoncie kilku lat. Dla AMD umowa może być akceleratorem całego łańcucha wartości: od przydziałów u TSMC, przez rozwój stosu programowego (ROCm, biblioteki) i ekosystemu partnerów, po lepszą przewidywalność przepływów w segmencie data center. Rynek odczytał to natychmiast – skok kursu, fala analiz porównawczych do CUDA i pytania o „lepką” część przewagi Nvidii (software + narzędzia). W praktyce adopcja AMD w projektach AI wchodzi w „fazę dowodu w boju”: o sukcesie zadecyduje nie tylko surowa wydajność układów, lecz gotowość narzędzi, sterowników i wsparcia dla frameworków ML, tak aby zespoły mogły przenieść istniejące pipeline’y treningowe i inferencyjne bez istotnych kompromisów. W Polsce i w Europie to także sygnał dla ośrodków HPC i operatorów chmur krajowych: dywersyfikacja dostawców akceleratorów może przyspieszyć projekty, które do tej pory tkwiły w kolejce po GPU Nvidii; warunkiem będzie jednak dostępność kompetencji programistycznych w ROCm oraz dojrzałość narzędzi MLOps pod MI-serię.
W czwartek Google Cloud przedstawił Gemini Enterprise – nową ofertę narzędzi AI do pracy biurowej i operacyjnej z wyraźnym pozycjonowaniem na konkurencję z Microsoft Copilot i ofertami OpenAI dla firm. Model wejścia jest prosty i biznesowo „czytelny”: 30 USD miesięcznie za użytkownika w planie rocznym w wersji podstawowej, z wyższymi wariantami i tańszą edycją Business (21 USD) dla mniejszych zespołów. Poza generatywnym pisaniem i podsumowaniami, nacisk położono na „jedne drzwi do danych firmowych” – możliwość bezpiecznego przeszukiwania i rozmowy z dokumentami, pocztą, plikami z dysków, a także integracje Workspaces i konektory do systemów przedsiębiorstwa. To ruch, który porządkuje ofertę Google na tle rozdrobnionych dotąd narzędzi – daje działom IT i zakupów jasność, co kupują i jak licencjonują. Dla użytkowników ważny jest „czas do wartości”: szybkie wdrożenie, upraszczanie zadań (kwerendy, briefy, analizy), a dla compliance – obietnica separacji danych i trybów beztrenigowych na danych klienta. Tydzień przyniósł też odzew rynku: pytania o precyzyjne granice odpowiedzialności, standardy audytu promptów i przepływów oraz interfejsy do systemów krytycznych. Z punktu widzenia polskich firm, które często używają mieszanki Google i Microsoftu, pojawia się konkretny dylemat: konsolidować narzędzia wokół jednego dostawcy, czy świadomie utrzymywać „dwubiegunowość”, przypisując zespołom produkt najlepiej dopasowany do ich przepływów pracy. W kontekście kosztów łącznych decyzja nie jest oczywista, ale presja konkurencyjna na rynku oznacza, że w 2026 r. możemy spodziewać się większej elastyczności cen i bundlingu (np. z usługami bezpieczeństwa lub analityki).
Na konferencji deweloperskiej w tym tygodniu OpenAI pokazało kolejne wcielenie ChatGPT – tym razem jako platformy z wbudowanym ekosystemem aplikacji i agentami. Sedno: deweloperzy dostają Apps SDK do budowy aplikacji „rozmownych”, które działają wprost w interfejsie ChatGPT, z dystrybucją przez katalog/app-store, a firmy mogą łączyć funkcje czatu ze swoimi usługami (od rezerwacji i zakupów po projektowanie w narzędziach kreatywnych). Jednocześnie ogłoszono AgentKit – zestaw do tworzenia agentów, które realizują zadania krok po kroku w oparciu o scenariusze i dostęp do narzędzi (API, bazy, workflowy), oraz aktualizacje do silników deweloperskich (m.in. rozwinięty Codex do pracy z kodem i automatyzacją w CI/CD). To przesuwa środek ciężkości: ChatGPT przestaje być wyłącznie „asystentem do rozmów”, a staje się interfejsem do czynności transakcyjnych i biznesowych. Dla ekosystemu oznacza to nowy kanał dystrybucji – potencjalnie kuszący, bo z gigantyczną bazą użytkowników, ale też wymagający wysokich standardów bezpieczeństwa (autoryzacje, zakresy uprawnień, rozliczanie transakcji). Krytycy zwracają uwagę, że choć agentowość brzmi imponująco, to realne wdrożenia w środowiskach regulowanych i o wysokiej krytyczności będą wymagały „człowieka w pętli” i rygorystycznego testowania. Mimo to trend jest klarowny: interfejs językowy staje się „systemem operacyjnym interakcji”, a to, co dotąd robiły dedykowane aplikacje, może migrować do rozmów z wyspecjalizowanymi modułami. W praktyce działów IT: czas budować polityki bezpieczeństwa dla aplikacji działających wewnątrz ChatGPT (i konkurencyjnych platform), standaryzować wzorce uprawnień i katalogować przepływy danych, które aplikacje będą dotykać.
Komisja Europejska ogłosiła w tym tygodniu dwie uzupełniające się strategie mające przyspieszyć wdrożenia AI: „Apply AI” – nakierowaną na przemysł i usługi publiczne – oraz „AI in Science”, która ma wzmocnić zastosowania sztucznej inteligencji w badaniach, otwierając m.in. drogę do większej współpracy laboratoriów, lepszego dostępu do danych i mocy obliczeniowych. To ważny element większej układanki: AI Act już obowiązuje w zakresie części przepisów (w tym GPAI), ale to adopcja przesądzi o przewadze konkurencyjnej – stąd nacisk na ramy wdrożeniowe, standardy i finansowanie. Strategia „Apply AI” sygnalizuje koncentrację na sektorach o wysokim wpływie (zdrowie, przemysł, administracja), a „AI in Science” chce zlikwidować wąskie gardła w dostępie do HPC/akceleratorów i ułatwić pracę badaczy (np. wspólne zasoby, lepsze repozytoria i narzędzia). Dla uczelni i instytutów w Polsce to zachęta do włączania się w europejskie konsorcja i pilotaże; dla firm – wskazówka, że pojawią się programy i instrumenty ułatwiające wdrożenia (granty, wspólne standardy interoperacyjności). Co równie istotne, oficjalne materiały Komisji jasno przypominają harmonogram stosowania AI Act – firmy technologiczne nie mogą liczyć na opóźnienia: obowiązki dla modeli ogólnego przeznaczenia już działają, a reszta jest opisana dokładnymi datami, co zamyka przestrzeń na „czekanie do ostatniej chwili”.
W połowie tygodnia Chiny rozszerzyły reżim kontroli eksportu rzadkich ziem – kluczowych surowców dla elektroniki, energetyki wiatrowej, motoryzacji i obronności – dodając kolejne pierwiastki i, co istotne, obejmując restrykcjami także sprzęt i technologie przetwórcze. Praktyczny efekt: rośnie odsetek zastosowań, dla których konieczne będą licencje, a w przypadku powiązań z sektorem obronnym Pekin zapowiada domyślną odmowę. Równolegle media doniosły o wzmożonych kontrolach na chińskich portach – szczególnie wobec importu układów Nvidii dedykowanych rynkowi chińskiemu (H20, RTX 6000D) – co wpisuje się w szerszy cel ograniczania zależności od amerykańskich komponentów i uszczelniania granic wobec omijania restrykcji. Dla globalnych łańcuchów dostaw to sygnał ostrzegawczy: nawet jeśli fizycznie towar istnieje, licencja lub inspekcja potrafi stać się „wąskim gardłem” o tygodniach opóźnienia. Z perspektywy producentów elektroniki i integratorów systemów AI w Europie trzeba zakładać scenariusze z buforami zapasów, alternatywnymi materiałami (np. częściowe substytuty magnesów na bazie ferrytów) i przenoszeniem części etapów produkcji poza jurysdykcje wysoce regulowane eksportowo. W szerszej geopolityce od razu nastąpiła riposta słowna: Waszyngton zapowiedział możliwość drastycznego podniesienia ceł na produkty z Chin – co jeszcze bardziej podnosi niepewność cen i dostępności. W gospodarce opartej o AI zderzają się dziś trzy „paliwa”: energia, dane i hardware – a hardware bez rzadkich ziem nie istnieje. Tydzień pokazał, że ten trzeci filar staje się areną najbardziej bezpośredniej gry państw.
Intel przygotował prezentację techniczną dla nadchodzącej generacji mobilnych układów „Panther Lake”, które mają być pierwszym produktem w całości wytwarzanym w procesie Intel 18A – kluczowym dla odbudowy wiarygodności foundry i konkurencyjności względem TSMC. To wydarzenie jest mniejsze medialnie niż umowy hyperskalerów, ale strategicznie ogromne: jeśli 18A zademonstruje przewagi energetyczne i gęstość tranzystorów na poziomie obietnic, a notebooki z Panther Lake pokażą realny zysk czasu pracy i wydajności AI-lokalnej, Intel odzyska podmiotowość w segmencie, w którym stracił grunt. Co ważne dla branży PC, Panther Lake jest projektowany już z myślą o „PC-tach AI” – układy NPU mają udźwignąć rosnącą falę modeli uruchamianych na brzegu (lokalnie), a GPU/CPU wspierać hybrydowe scenariusze (lokalnie + chmura). Dla producentów sprzętu to szansa na świeżą narrację sprzedażową, dla deweloperów – konieczność dostosowania pipeline’ów do nowego stosu akceleracji. Z punktu widzenia Polski – istotne, bo lokalni integratorzy i dystrybutorzy notebooków dla sektora publicznego i edukacji mogą skorzystać z okna modernizacji, o ile łańcuch dostaw będzie stabilny, a ceny – konkurencyjne wobec alternatyw. Jednocześnie pozostaje pytanie o tempo certyfikacji, sterowniki i wsparcie w środowiskach korporacyjnych, które nie lubią eksperymentów; to obszary, które Intel będzie musiał wygrać nie tylko hardware’em, ale i software’em.
W środę AST SpaceMobile poinformowało o zawarciu definitywnej umowy z Verizon na świadczenie usług „direct-to-device” – bezpośredniej łączności satelitarnej ze zwykłymi smartfonami – na obszarze kontynentalnych Stanów Zjednoczonych od 2026 r. To kolejny duży układ po wcześniejszych porozumieniach z operatorami, ale skala i marka Verizon czynią go najpoważniejszym testem rynkowym. Technicznie projekt opiera się o konstelację BlueBird i współpracę widmową, w ramach której pasmo 850 MHz Verizon zostanie „wydłużone” kosmicznym segmentem do obszarów pozbawionych zasięgu naziemnego. Z perspektywy użytkownika różnica ma być niewidoczna – ten sam telefon, ta sama karta SIM, zasięg „po prostu jest”. Dla ekosystemu telco to ruch tektoniczny: back-up łączności w katastrofach naturalnych, usługi dla sektora transportu, rolnictwa i energetyki w trudno dostępnych terenach, oraz – potencjalnie – nowe modele rozliczeń (dopłaty za obszary białe, pakiety awaryjne). Jednocześnie narasta wyścig: SpaceX z T-Mobile, Lynk, a pośrednio także tradycyjne sieci satelitarne szukają swojej przewagi. Kluczem będzie integracja „bezszwowa” i jakość usług w realnych warunkach (latencja, przepustowość, przełączanie między segmentami). Dla polskich operatorów i regulatora to ważny kierunek obserwacji: jeśli łączność „telefon↔satelita” stanie się rynkowym standardem w USA, presja na europejskie wdrożenia wzrośnie – z wszystkimi pytaniami o widmo, roaming i interoperacyjność.
Producent i operator rakiet Electron ogłosił kolejne wielomisyjne porozumienia – m.in. z japońskim iQPS na trzy dedykowane starty Electronów w 2026 r., a media finansowe doniosły o dodatkowych umowach związanych z japońskim rynkiem i agencją JAXA. W reakcji kurs spółki wyznaczał w tym tygodniu nowe rekordy. Strategiczny sens jest dwojaki. Po pierwsze, Electron umacnia pozycję jako „wołek roboczy” dla małych i średnich ładunków – szybkie kampanie startowe, krótkie okna i możliwość „dokładania” misji dla klientów o wysokich wymaganiach czasowych (SAR, obserwacja Ziemi, bezpieczeństwo). Po drugie, portfel zamówień i powtarzalność współpracy z japońskimi klientami to sygnał gotowości rynku na „większego brata”, czyli rakietę Neutron (testy pod koniec 2025 r.), która ma wejść w segment konstelacji średniej skali i konkurencji w niektórych misjach ze SpaceX. W praktyce wyścig małych i średnich rakiet zaczyna dzielić się na tych, którzy potrafią utrzymać tempo i jakość (Rocket Lab, w określonym zakresie Relativity, Stoke), i tych, którzy mają pojedyncze, ale nieregularne sukcesy. Dla polskich spółek kosmicznych zestaw wniosków jest jasny: jeśli budujesz instrumenty i małe satelity, warto dywersyfikować opcje startowe – kalendarz i SLA są dziś równie krytyczne, co cena.
Na styku kosmosu i bezpieczeństwa narodowego trwa gorączka zakupów. Firefly Aerospace – świeżo po dużym debiucie giełdowym – ogłosił przejęcie SciTec, firmy od analityki i technologii obserwacji (m.in. wczesne ostrzeganie przed rakietami, ISR). Transakcja o wartości ok. 855 mln USD (część gotówką, część w akcjach) wzmacnia ambicję Firefly w segmencie usług dla rządu USA: nie tylko wynoszenie ładunków, ale „pełny stack” – od startu po przetwarzanie danych i operacje na orbicie. To wpisuje się w szerszy trend: Space Force i inne agendy federalne rozdzielają miliardowe kontrakty na misje i usługi, oczekując od partnerów kompleksowości i szybkości działania. W realiach 2025 r. oznacza to, że firmy kosmiczne, by rosnąć, muszą łączyć kompetencje: konstrukcja, start, transfer, przetwarzanie, analityka. Dla rynku oznacza to również dojrzewanie wycen i rosnące bariery wejścia – ale i większe bezpieczeństwo realizacji misji, gdy kluczowe moduły są pod jednym dachem. Dla polskich podmiotów rosnący popyt na integrację danych satelitarnych (SAR, optyka, RF) z analityką czasu bliskiego rzeczywistemu to szansa na nisze – o ile będą gotowe certyfikacje bezpieczeństwa i partnerstwa z firmami mającymi dostęp do kontraktów publicznych w USA i UE.
Tydzień zamknęły dwie linie narracyjne, które razem rysują obraz „dojrzałej fazy” wdrożeń AI w biznesie. Pierwsza to infrastruktura na sterydach: hiperskalerzy i laboratoria AI podpisują kolejne wielomiliardowe umowy na dostęp do akceleratorów i energii (oraz, jak pokazał wrzesień, nietypowe inwestycje krzyżowe między producentami i klientami), a media branżowe punktują brakujące ogniwa – od mocy przyłączeniowych po chłodzenie i logistykę układów. Druga to bezpieczeństwo i zgodność: europejskie ramy prawne (AI Act) nie zwalniają, a prawnicy i regulatorzy sektora finansowego przypominają o podwójnej naturze AI – wzmacnia obronę, ale może też wprowadzić nowe wektory ataku i podatności. W efekcie firmy, które w 2023–2024 wdrażały „pilotaże AI”, dziś wchodzą w etap standaryzacji: katalogi modeli, rejestry zastosowań, zasady audytu i „guardraile” dla agentów. Na to nakłada się rosnąca presja pracowników na przejrzystość wykorzystania danych i wyjaśnialność rekomendacji narzędzi. Praktyczna lekcja tygodnia dla CIO i CISO: warto planować nie tylko budżet na seat’y asystentów AI, ale i koszty operacyjne „otuliny” (monitoring, DLP, sandboxy, ocena ryzyka dostawców), a także alternatywne ścieżki – od GPU A do GPU B – bo świat sprzętu i surowców wchodzi w okres wysokiej niepewności. W tym sensie newsy o nowych produktach, kontraktach i restrykcjach nie są od siebie oderwane – tworzą jeden ekosystem, w którym przewagę daje zdolność do łączenia klocków: od prawa, przez łańcuchy dostaw, po doświadczenie użytkownika.
https://www.reuters.com/business/amd-signs-ai-chip-supply-deal-with-openai-gives-it-option-take-10-stake-2025-10-06/ – depesza o umowie AMD–OpenAI: wieloletnie dostawy akceleratorów AI i struktura warrantów
https://www.bloomberg.com/news/articles/2025-10-09/google-cloud-battles-microsoft-openai-for-workplace-ai – materiały o starcie Gemini Enterprise i cenniku; kontekst konkurencji w AI do pracy
https://techcrunch.com/2025/10/09/google-ramps-up-its-ai-in-the-workplace-ambitions-with-gemini-enterprise/ – omówienie wariantów cenowych Gemini Enterprise i planu Business
https://openai.com/index/introducing-apps-in-chatgpt/ – oficjalny wpis OpenAI: wprowadzenie aplikacji w ChatGPT i Apps SDK
https://venturebeat.com/ai/openai-dev-day-2025-chatgpt-becomes-the-new-app-store-and-hardware-is-coming – podsumowanie DevDay: aplikacje, agenci i kierunek platformowy
https://commission.europa.eu/news-and-media/news/keeping-european-industry-and-science-forefront-ai-2025-10-08_en – komunikat Komisji Europejskiej o strategiach „Apply AI” i „AI in Science”
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai – strona KE: oś czasu stosowania AI Act i zakres obowiązywania
https://www.reuters.com/world/china/china-tightens-rare-earth-export-controls-2025-10-09/ – Reuters: zaostrzenie kontroli eksportu rzadkich ziem przez Chiny, zakres i cel regulacji
https://www.reuters.com/world/china/how-chinas-new-rare-earth-export-controls-work-2025-10-10/ – szczegóły działania nowych reguł eksportowych rzadkich ziem w Chinach
https://www.reuters.com/world/china/china-steps-up-customs-crackdown-nvidia-ai-chips-ft-reports-2025-10-10/ – wzmożone kontrole importu układów AI Nvidii na chińskich portach (za FT)
https://www.reuters.com/world/asia-pacific/intel-reveal-tech-details-forthcoming-pc-chip-sources-say-2025-10-07/ – plany Intela: ujawnienie szczegółów „Panther Lake” na procesie 18A
https://www.businesswire.com/news/home/20251008175159/en/AST-SpaceMobile-Announces-Definitive-Commercial-Agreement-with-Verizon-to-Support-Space-Based-Cellular-Broadband-Across-the-Continental-United-States – oficjalny komunikat AST SpaceMobile o komercyjnej umowie z Verizon
https://apnews.com/article/88e8780d32b973333fad262665527199 – AP: omówienie partnerstwa Verizon–AST SpaceMobile i planów startu usług
https://www.tradingview.com/news/reuters.com%2C2025%3Anewsml_TUA2FL0NY%3A0-rocket-lab-secures-latest-multi-launch-contract-with-iqps-for-three-dedicated-electron-missions/ – Reuters (dystrybucja): kontrakt Rocket Lab z iQPS na trzy starty Electron
https://www.investopedia.com/rocket-labs-shares-lift-on-new-satellite-launch-deals-11826373 – omówienie pakietu umów Rocket Lab i wpływu na kurs, z kontekstem japońskich klientów
https://www.reuters.com/business/aerospace-defense/firefly-aerospace-acquire-scitec-855-million-deal-2025-10-05/ – przejęcie SciTec przez Firefly Aerospace: warunki, motywacje i znaczenie dla rynku „space+defense”
https://techcrunch.com/2025/10/10/the-billion-dollar-infrastructure-deals-powering-the-ai-boom/ – analiza TechCrunch: jak miliardowe umowy infrastrukturalne napędzają boom AI
https://www.slaughterandmay.com/insights/financial-regulation-weekly-bulletin/financial-regulation-weekly-bulletin-9-october-2025/ – biuletyn regulacyjny: akcenty cyberbezpieczeństwa i ryzyk w kontekście AI w sektorze finansowym