Davos 2026: liderzy AI mówią o bezpieczeństwie, chipach i AGI
Sztuczna inteligencja była w Davos 2026 tematem porównywalnym wagą do taryf celnych i geopolityki. Liderzy największych firm AI zabrali głos w kwestiach, które wykraczają daleko poza technikalia.
Satya Nadella (Microsoft): AI musi robić coś pożytecznego
CEO Microsoftu podkreślił, że faza zachwytu technologią musi ustąpić miejsca mierzalnym efektom. „Jako globalna społeczność musimy dojść do etapu, w którym wykorzystujemy AI do czegoś pożytecznego, co zmienia losy ludzi, społeczności, państw i branż” — mówił Nadella.
Wskazał jednocześnie na strukturalną nierówność w dostępie do AI. Wdrożenie technologii na świecie będzie nierównomierne — ograniczy je dostęp do kapitału i infrastruktury. Kluczowe systemy bazowe (sieci energetyczne, telekomunikacja) są „zasadniczo zależne od działań rządów”, a prywatne firmy mogą skutecznie działać dopiero gdy te fundamenty są gotowe.
Dario Amodei (Anthropic): nie sprzedawać chipów Chinom
CEO Anthropic ocenił, że AI stoi przed „niewiarygodliwymi możliwościami”, ale najbliższe lata będą kluczowe dla sposobu regulowania tej technologii.
Amodei wypowiedział się jednoznacznie w kwestii sankcji chipowych: „Nie sprzedawanie chipów do Chin to jeden z najważniejszych kroków, jakie możemy podjąć.” To twarda pozycja w debacie, w której część branży opowiada się za łagodzeniem restrykcji eksportowych.
Rozmowa dotyczyła też scenariusza po osiągnięciu AGI — momentu, gdy AI dorównuje lub przewyższa ludzkie zdolności poznawcze. Amodei zaznaczył, że wtedy „ludzie mogą stracić nad nią kontrolę” i właśnie dlatego zarządzanie AI teraz ma kluczowe znaczenie.
Szerszy kontekst: od pilotaży do rozliczalności
Raporty z początku 2026 wskazują na wyraźną zmianę nastroju w branży: firmy, które w 2025 robiły pilotaże AI, teraz są pod presją, żeby pokazać wyniki. Mierzalny zwrot z inwestycji, odporność operacyjna i odpowiedzialność za decyzje algorytmów to priorytety, które zastępują pierwotny zachwyt technologią.
W tle rośnie trzeci trend: walka o zaufanie, bezpieczeństwo i suwerenność danych. Gdzie dane są przetwarzane, kto za nie odpowiada i jak audytować decyzje agentów AI — to pytania, bez których skalowanie AI w środowiskach regulowanych będzie niemożliwe.