18.03.2026
Salesforce News

Czy AI naprawdę zabije SaaS? Salesforce mówi: nie w enterprise

Czy AI naprawdę zabije SaaS? Salesforce mówi: nie w enterprise

Spadki akcji TCS, Infosys i Wipro o 4-7 procent po debiucie narzędzi Anthropic pokazały, że rynek poważnie traktuje narrację SaaSpocalypse. Dla wielu CIO pojawiło się pytanie: skoro model LLM potrafi sam generować aplikacje i automaty w locie, po co w ogóle SaaS? Tymczasem Salesforce odpowiada przewrotnie: nawet twórcy modeli, jak Anthropic i OpenAI, nadal opierają swoje procesy na Slacku i CRM jako systemach krytycznych. Co ta dyskusja oznacza dla zespołów Salesforce w kontekście AI, governance i architektury oraz jak przygotować org na nową dekadę cloud + agentic AI?

SaaS nie znika – zmienia swój fundament operacyjny

Salesforce podczas AI Impact Summit podkreśla jedno: firmy mogą budować własne modele i automaty, ale nie zbudują od zera compliance, audytowalności i governance. Srini Tallapragada, CTO, wskazał, że nawet najwięksi gracze AI używają Salesforce jako warstwy operacyjnej dla procesów mission-critical. To kluczowy sygnał dla architektów, bo oznacza, że w 2026 r. system CRM przestaje być interfejsem, a staje się standardową warstwą kontroli nad agentami. W praktyce: nawet jeśli agent LLM może samodzielnie wygenerować proces, decyzja, logi i ścieżka audytu nadal muszą przechodzić przez Salesforce. To przesuwa ciężar projektowania z interfejsu użytkownika na kontrolę nad przepływem danych i ryzykiem operacyjnym.

Technicznie oznacza to, że warstwy takie jak Data 360, kontrola uprawnień, Field-Level Security i Transaction Security Policies stają się fundamentem dla agentic AI. Bez nich żaden LLM nie może działać deterministycznie w enterprise. Właśnie dlatego Salesforce równolegle rozwija mechanizmy minimalizacji kontekstu, takie jak MCP w Agentforce, które opisujemy szerzej w artykule o MCP jako narzędziu eliminującym bloat kontekstowy. W kontekście SaaSpocalypse ma to konsekwencję nieoczywistą: firma może przyjąć LLM od Anthropic, ale nadal będzie potrzebować stabilnej platformy do egzekwowania zasad, retry logic, throttlingu, kolejkowania oraz integracji z otoczeniem danych.

W europejskich orgach widać już podobny trend: rośnie rola architektów odpowiedzialnych nie za konfigurację rekordów, ale za definiowanie guardrails, kontrolę przepływu danych i projektowanie procesów odpornych na halucynacje AI. SaaS staje się coraz mniej aplikacją, a coraz bardziej warstwą operacyjną dla agentów. Jeśli ktoś liczył, że vibe-coding zastąpi konfigurację Salesforce, Tallapragada studzi entuzjazm: vibe można generować, ale odpowiedzialności nie da się wygenerować modele same z siebie. I to właśnie odpowiedzialność, audytowalność i reguły przetrwają kolejne lata.

AI w enterprise wymaga stabilnej warstwy krytycznej – i to jest rola SaaS

W dyskusji pojawia się fundamentalne pytanie: czy firmy mogą pominąć SaaS i budować bezpośrednio na modelach? Teoretycznie tak, ale w praktyce naruszają compliance, traceability i kontrolę bezpieczeństwa. Arundhati Bhattacharya z Salesforce mówi wprost: LLM to tylko narzędzie, firma potrzebuje kontekstu, reasoning, governance i audytowalności. To spójne z tym, co obserwujemy w polskich projektach AI: modele trzeba nie tylko wdrożyć, ale też kontrolować ich zachowanie, monitorować drift oraz zapewnić powtarzalność wyników. Tu właśnie SaaS odzyskuje przewagę – bo operuje na już istniejących strukturach uprawnień, strukturach danych i logach operacyjnych.

W architekturze Salesforce wejście agentów AI wymusiło rozwój nowych mechanizmów synchronizacji kontekstu między systemami i agentami. Przykładem są A2A patterns (opisane szerzej w analizie A2A), które przekształcają CRM w platformę koordynacji wielu agentów pracujących na tych samych danych. To odpowiedź na problem: jak utrzymać spójność i deterministyczność w środowisku, gdzie procesy generuje AI, a nie człowiek. Modele mogą wymyślać struktury nowych aplikacji, ale nie wymyślą polityk dostępu, retry backoff czy kontroli limitów API. Bez tej warstwy przedsiębiorstwo może jedynie eksperymentować, nie wdrażać produkcyjnie.

Dla firm kluczowe jest to, że SaaS nie jest wypierany przez modele, tylko zmienia swoją rolę: z aplikacji do zarządzania rekordami w system bezpieczeństwa, odpowiedzialności i kontekstu. To oznacza realokację budżetów: mniej środków na klikany front-end, więcej na integracje, architekturę danych i governance wokół agentycznych procesów. W 2026 r. brakuje już projektów typu „zróbmy ładniejszy ekran dla handlowca”, natomiast rośnie zapotrzebowanie na takie, które integrują 10-15 źródeł danych w Data 360, aby agent mógł w ogóle pracować.

Dlaczego vibe-coding nie zastąpi platformy – i co to znaczy dla zespołów

Tallapragada poruszył kluczowy temat: vibe-coding może wygenerować prototypy i proste aplikacje, ale nie gwarantuje zgodności z regulacjami, kontrolą ryzyka i bezpieczeństwem enterprise. To ważny sygnał dla adminów i developerów, bo wiele firm liczyło, że AI zredukuje ich rolę. W praktyce AI zwiększa zapotrzebowanie na ludzi, którzy potrafią nadzorować automaty, zarządzać kontekstem, łączyć dane oraz projektować przepływy odporne na błędy modeli. Innymi słowy: mniej klikania, więcej architektury.

Właśnie dlatego Salesforce rozwija narzędzia typu Agentforce Vibes, które opisywaliśmy w artykule o nowym standardzie budowania aplikacji. Pozwalają one tworzyć funkcje przez dialog, ale wciąż działają w kontrolowanych ramach metadanych, uprawnień i transakcji. Różnica między vibe-codingiem Anthropic (open world) a Vibes w Salesforce (closed, compliance-first) jest fundamentalna dla enterprise. Salesforce nie konkuruje tu z modelem Claude, tylko zapewnia mu bezpieczne środowisko wykonawcze z regułami i logiką biznesową. Firma, która wdraża AI poza tym środowiskiem, ryzykuje shadow AI, brak audytu i naruszenie RODO w pierwszym miesiącu działania.

W praktyce oznacza to, że polskie firmy powinny już budować kompetencje w kierunku AI governance, Data Cloud, API-first oraz architektury agentów. To nie jest trend, tylko zmiana paradygmatu: aplikacje budowane naturalnym językiem nie zwalniają z odpowiedzialności, a wręcz ją wzmacniają. Role Salesforce przesuwają się z admina-konfiguratora w stronę architekta, który łączy dane, automaty, ograniczenia systemowe i procesy AI w jeden spójny system.

Deployment gap znika – 2026 to rok mierzalnej wartości

Jedna z najciekawszych obserwacji Salesforce dotyczy tzw. pilot purgatory – organizacje zatrzymały się na etapie PoC i demo. Tallapragada mówi, że 2026 to rok value: CEO nie chcą kolejnych eksperymentów, tylko twardych wskaźników. To ma bezpośrednie implikacje dla polskich orgów: AI nie jest już „dodatkiem”, tylko komponentem, który musi dowozić wartości w Service, Sales i Operations. Salesforce podaje liczby: 18 500 klientów używa ich narzędzi AI produkcyjnie. Jeśli Twoja firma nadal jest na etapie testów, to znaczy, że odstaje od rynku.

Warchitektury to oznacza konieczność przebudowy procesów tak, aby agenty AI mogły wykonywać zadania end-to-end. Trzeba budować retry logic, procesy wieloagentowe oraz integraować dane w czasie rzeczywistym. Nowe funkcje, takie jak Agentforce 360, pozwalają agentom łączyć kontekst z wielu źródeł i eliminować przełączanie między systemami. To ogromna zmiana, bo klasyczna architektura oparta na API middleware przestaje być wystarczająca, a wchodzimy w świat kontekstu współdzielonego między ludźmi i modelami.

Dla praktyków oznacza to trzy priorytety na 2026: uwspólnienie danych, standaryzacja procesów i eliminacja długu technicznego blokującego agentów. Jeśli organizacja nadal operuje na rekordach bez unified data layer, agenty będą halucynować lub błędnie wykonywać zadania. Deployment gap znika, a rynek zaczyna różnicować zespoły po tym, kto potrafi dowozić wartość, nie PoC.

Zakończenie

AI nie zabija SaaS – zabija jedynie SaaS, który nie ma warstwy governance, danych i kontroli nad agentami. Salesforce pokazuje, że przyszłość to nie wybór między SaaS a modelami, ale ich współistnienie: LLM jako logika, SaaS jako warstwa odpowiedzialności. Dla polskich zespołów Salesforce kluczowe będzie przesunięcie kompetencji z konfiguracji na architekturę danych, bezpieczeństwo i kontrolę kontekstu. Pytanie na najbliższe miesiące brzmi: czy Twój org jest gotowy, aby AI działała produkcyjnie, czy nadal myślisz w kategoriach PoC?