CoDA-1.7B: Salesforce zmienia grę w AI dla kodu
- 6 października 2025
Salesforce CoDA-1.7B to model językowy do kodu, który korzysta z architektury diffusion (rozpraszania), czyli iteracyjnego „odszumiania” sekwencji znaków, aby uzyskać poprawny fragment programu. Zamiast przewidywania kolejnych tokenów tylko od lewej do prawej, jak w klasycznych modelach językowych, tutaj model korzysta z dwukierunkowego kontekstu — analizuje jednocześnie całą sekwencję. Dzięki temu potrafi wypełniać puste miejsce wewnątrz kodu (tzw. infilling), co przyspiesza i uelastycznia pracę deweloperów. Dodatkowo, równoległe generowanie tokenów skraca czas oczekiwania na wynik — ma to duże znaczenie nie tylko w zastosowaniach AI, lecz także w każdym nowoczesnym CRM, który integruje automatyczne podpowiedzi kodu lub optymalizacje zapytań (źródło).
Twórcy CoDA-1.7B udostępnili zarówno bazową wersję modelu, jak i wariant Instruct, optymalizowany do podążania za instrukcjami. Proces budowy obejmuje trzy etapy: pre-trening z dwukierunkowym maskowaniem, post-trenowanie nadzorowane oraz sekwencyjne denoising podczas inferencji (czyli generowania kodu). Cała infrastruktura nauczania, tuningu oraz uruchamiania rozwiązań na serwerach jest publicznie dostępna — razem ze skryptami i instrukcjami dla TPU oraz GPU. Model jest zgodny z API OpenAI, pozwala też na lokalne wdrożenie przez FastAPI i wygodny interfejs CLI (repozytorium GitHub), (model na Hugging Face).
Na testach takich jak HumanEval, HumanEval+ czy MBPP, model osiągnął odpowiednio 54,3%, 47,6% i 47,2% poprawnych rozwiązań z pierwszego podejścia; dla MBPP+ wynik to 63,2%, a EvalPlus w agregacie – 55,4%. Co istotne, model bazuje na 1,7 miliardzie parametrów, a mimo to jest konkurencyjny wobec dużo większych modeli diffusion, takich jak Dream-7B-Instruct (57,9% na HumanEval). Oznacza to przewagę w kosztach utrzymania czy czasie wdrożenia — co docenią zarówno działy IT, jak i osoby rozwijające aplikacje CRM z AI. Parametry inferencji, takie jak liczba kroków diffusion czy typu dekodowania (np. entropy-style), pozwalają dynamicznie balansować między szybkością a jakością (dokumentacja techniczna).
Innowacyjność CoDA-1.7B to nie tylko algorytmy, ale też otwartość. Model oraz całe środowisko zostały wydane na licencji Creative Commons BY-NC 4.0 – oznacza to niekomercyjny, szeroki dostęp do użycia na potrzeby badań czy rozwoju wewnętrznych rozwiązań. Dołączone są gotowe wdrożenia, a społeczność może korzystać z wszystkich artefaktów na platformie Hugging Face. To bardzo ważny sygnał dla branży CRM oraz firm chcących eksperymentować z AI – Salesforce zachęca do wspólnych eksperymentów i rozwoju oprogramowania (model i checkpointy).
Salesforce pokazuje, że podejście diffusion może być praktyczną alternatywą dla klasycznych modeli generatywnych, szczególnie w automatyzacji pisania kodu i integracji AI z systemami CRM. Równoległość, elastyczność i transparentność procesu szkolenia pozwalają firmom testować różne scenariusze – od wsparcia programistów po automatyczną naprawę fragmentów wewnętrznego kodu. Pozostaje pytanie, czy ten typ rozwiązań stanie się standardem w branży AI dla biznesu. Jak szybko rynek zweryfikuje przewagę dwukierunkowego kontekstu i równoległego generowania tokenów nad podejściami sekwencyjnymi?