Skip to content
Wróć do bloga

Panika na zamówienie — jak branża AI sprzedaje apokalipsę

Znowu ktoś z branży AI opublikował list do przyjaciół i rodziny: kupujcie nasze produkty, bo inaczej zostaniecie z niczym. Tym razem to Matt Shumer, założyciel startupu AI. Gatunek literacki 'apokalipsa od środka' kwitnie — i jest znakomicie skonstruowaną techniką marketingową.

Zespół Stop Robotom
··6 min czytania

Matt Shumer opublikował tekst zatytułowany "Something Big Is Happening" — coś wielkiego się dzieje. Pisze, że jest świadkiem historycznego przełomu, że modele AI z lutego 2026 roku działają samodzielnie przez wiele godzin, że nie potrzebują poprawek, że "rozumieją kontekst" i "podejmują decyzje estetyczne". Pisze z troską, bo chce ostrzec rodzinę i przyjaciół, zanim będzie za późno.

Na końcu artykułu radzi, żebyś codziennie używał płatnych wersji narzędzi AI — Claude Opus 4.6, GPT-5.2 — bo "wersje darmowe to nie to samo". Matt Shumer jest założycielem firmy tworzącej produkty AI.

Zbieżność przypadkowa.

Gatunek literacki: "Insider ostrzega"

Istnieje ugruntowany gatunek wypowiedzi w technologicznym internecie: list do niewtajemniczonych od kogoś, kto jest w środku. Autor pisze z pozycji osoby, która widzi rzeczy, których ty nie widzisz — bo pracuje przy technologii, bo spotyka się z właściwymi ludźmi, bo ma dostęp do zamkniętych wersji produktów.

Format jest zawsze podobny:

  • Progresja zagrożenia (kiedyś AI nie umiało liczyć, teraz przechodzi egzamin adwokacki)
  • Osobiste świadectwo ("widziałem na własne oczy jak model...")
  • Cytaty z poważnych ludzi (Dario Amodei, Sam Altman)
  • Wezwanie do działania (zaadaptuj się albo zgiń)
  • Lista konkretnych kroków, które przypadkiem promują produkty branży

To nie jest przypadkowy schemat. To jest skuteczna perswazja, stara jak reklama.

Kto ostrzega i komu to się opłaca

Shumer cytuje Dario Amodeia, CEO Anthropic, który przewiduje "zniknięcie 50% stanowisk entry-level w białych kołnierzykach w ciągu 1-5 lat". Amodei mówił to publicznie wielokrotnie, m.in. w maju 2025.

Amodei jest jednocześnie osobą, która sprzedaje narzędzia rzekomo zastępujące pracowników i ostrzega przed likwidacją miejsc pracy. To nie jest sprzeczność — to jest doskonała pozycja rynkowa. Panujesz nad narracją zagrożenia i oferujesz remedium.

Specjalistka od przyszłości technologicznej Tracey Follows opisała retorykę Amodeia jako "częściowo prawdomówność, częściowo zarządzanie reputacją, częściowo pozycjonowanie rynkowe, częściowo wpływ na politykę". Innymi słowy: to nie jest filantropijne ostrzeżenie. To jest przemyślana komunikacja korporacyjna.

Rzeczywistość kontra prognozy

Branża AI ma szczególną relację z własnymi prognozami. Amodei przewidywał wcześniej, że do końca 2025 roku 90% kodu będzie pisane przez AI. Nie sprawdziło się — nawet w firmach technologicznych udział kodu generowanego przez AI wynosił między 25% a 40%.

Dane rynku pracy są jeszcze mniej dramatyczne. Yale Budget Lab przeanalizował dane amerykańskiego rynku pracy z lat 2022–2025 i stwierdził, że AI nie spowodowała dotąd masowych zwolnień. Udział pracowników w poszczególnych zawodach nie zmienił się znacząco od czasu premiery ChatGPT. Z 1,17 miliona zwolnień w 2025 roku bezpośrednio AI przypisano niespełna 55 tysięcy.

Światowe Forum Ekonomiczne prognozuje, że do 2030 roku AI stworzy 170 milionów nowych stanowisk pracy, likwidując 92 miliony — netto: plus 78 milionów miejsc pracy.

To nie znaczy, że wszystko jest dobrze. Znaczy, że rzeczywistość jest złożona, a branża AI konsekwentnie maluje ją w kolorach apokalipsy.

Dlaczego 5-godzinne autonomiczne zadania robią wrażenie

Shumer opisuje model AI wykonujący samodzielnie zadania przez pięć godzin: otwierający aplikacje, testujący je, podejmujący "estetyczne decyzje". To brzmi imponująco.

Ale to konkretna demonstracja w kontrolowanych warunkach, wykonywana przez twórcę produktu AI, na jego własnym blogu. To nie jest audyt zewnętrzny. To nie są warunki produkcyjne. To nie jest reprezentatywna próba.

Historia AI jest pełna imponujących demonstracji, które rozpadały się przy zderzeniu z chaosem prawdziwego środowiska pracy. GPT-4 "zdał egzamin adwokacki" — w sensie: przeszedł test wielokrotnego wyboru. Prawnicy nadal mają pracę. Lekarze nadal mają pracę. Dziennikarze nadal mają pracę — choć ich pracodawcy coraz chętniej eksperymentują z tym, żeby pracy dla nich nie mieć.

Imponujące demos to nie to samo, co transformacja rynku pracy.

Asymetria ryzyka, której nie widać w artykule

Shumer pisze uczciwie o ryzyku AI dla pracowników. Nie pisze o innej asymetrii: kto zyska, kiedy miejsca pracy znikną?

Nie znikają "miejsca pracy" w próżni — znikają płace, znikają prawa pracownicze, znikają rynki konsumenckie (bo skoro pracownik nie zarabia, to co kupuje?). Zyski z automatyzacji trafiają do właścicieli technologii i do akcjonariuszy. To nie jest tajemnica — tak działał każdy poprzedni etap automatyzacji, od mechanizacji tkactwa do automatyzacji fabryk.

Shumer wspomina o tym pobieżnie, pisząc, że "społeczeństwo będzie musiało znaleźć odpowiedź". Wyczerpująca analiza polityczna jak na kogoś, kto twierdzi, że to "największe zagrożenie w historii ludzkości".

"Zaadaptuj się" jako ideologia

Lista zaleceń Shumera to klasyczny podręcznik self-help w czasach niepewności: bądź elastyczny, ucz się, używaj narzędzi, buduj odporność finansową, realizuj pasje. To wszystko brzmi rozsądnie. To wszystko jest też przeniesieniem odpowiedzialności systemowej na jednostkę.

Problem z automatyzacją pracy nie jest problemem, który rozwiąże się przez to, że Kowalski będzie codziennie przez godzinę eksperymentował z narzędziami AI. To jest problem polityczny, regulacyjny, fiskalny. To jest pytanie o to, kto jest właścicielem wartości generowanej przez maszyny.

"Zaadaptuj się albo zgiń" to nie jest filozofia — to jest zrzeczenie się odpowiedzialności przez tych, którzy mają władzę i kapitał, na rzecz tych, którzy jej nie mają.

Co jest naprawdę nowe

Nie chcemy twierdzić, że nic się nie dzieje. Dzieje się dużo. Modele językowe są dziś znacznie bardziej użyteczne niż dwa lata temu. Agentowe AI — systemy wykonujące wieloetapowe zadania autonomicznie — stają się realne.

Ale:

  • Tempo nie jest tak stałe ani przewidywalne jak sugeruje Shumer
  • Skutki dla rynku pracy rozgrywają się wolniej niż prognozują twórcy AI
  • Beneficjenci zmian to przede wszystkim firmy technologiczne, nie pracownicy
  • Narracja paniki służy sprzedaży produktów, nie przygotowaniu społeczeństwa

"Coś wielkiego się dzieje" — tak. Ale coś wielkiego dzieje się od czterech lat, odkąd ChatGPT przekroczył próg masowej adopcji. I od czterech lat słyszymy, że właśnie teraz osiągnęliśmy punkt krytyczny. I że właśnie teraz musimy kupić premium.

Zakończenie

Branża AI odkryła, że apokalipsa jest doskonałym produktem. Tworzy pilność. Tworzy strach. Strach skłania do zakupów.

Kiedy następnym razem przeczytasz "list do przyjaciół i rodziny" od kogoś z branży technologicznej, sprawdź, co sprzedaje. Znajdziesz to zawsze — ukryte w "zaleceniach praktycznych", w linku na końcu, w produkcie, który "właśnie przypadkowo" rozwiązuje problem opisany w tekście.

Prawdziwi przyjaciele i rodzina nie kończą ostrzeżeń ofertą sprzedaży.


Źródła

Powiązane Teksty