Gen AI w Salesforce – część 1: Co się zmieniło?

Gen AI w Salesforce – część 1: Co się zmieniło?

Gen AI w Salesforce – część 1: Co się zmieniło?

Po dłuższej przerwie wracamy z nowym sezonem podcastu „Salesforce na wyciągnięcie ręki” – a zaczynamy od gorącego tematu: sztucznej inteligencji.

Gościnią odcinka jest ponownie Urszula Grassl, Senior Lead w Product Marketingu Salesforce. Ula dzieli się swoimi najnowszymi spostrzeżeniami na temat AI – co zmieniło się od naszej ostatniej rozmowy? Jakie funkcje są już dostępne? Czym jest Einstein Trust Layer i dlaczego to jeden z najważniejszych elementów architektury AI w Salesforce?

Poruszamy m.in.:

  • Nowości w Einstein Copilot i Copilot Studio
  • Zastosowania generatywnej AI w sprzedaży, marketingu i e-commerce
  • Jak AI zmienia sposób analizy danych
  • Rola zaufania, bezpieczeństwa i kontekstu w AI

🎧 To pierwszy z czterech odcinków poświęconych AI – zostań z nami, bo kolejne będą jeszcze bardziej konkretne!

Episode Transcript:

Coffee and Force, pierwszy portal o technologii i ekosystemie Salesforce w Polsce. Podcasty, aktualności, wydarzenia, nie tylko przy kawie. Cześć, witajcie serdecznie, z tej strony Łukasz Boiłos z Coffee and Force i witam Was w kolejnym odcinku w ramach serii podcastów Salesforce na wyciągnięcie ręki.

Salesforce na wyciągnięcie ręki to porcja inspirujących rozmów i historii prosto ze świata Salesforce. Ten projekt stworzony z myślą o Tobie powstał przy współpracy z samym Salesforce, aby przybliżyć tajniki technologii chmurowej, zarządzania relacjami z klientami i nie tylko. Przygotuj się na dawkę inspiracji i wiedzy, która może zmienić Twoje spojrzenie na technologie w biznesie.

Zrelaksuj się, bądź z nami i odkrywaj nieznane zakątki Salesforce w każdym odcinku. A dziś będziemy rozmawiać ponownie o sztucznej inteligencji. Moim Waszym gościem dzisiaj jest ponownie Urszula Grasl.

Urszula Grasl, senior lead w zespole product marketingu w Salesforce, jest absolwentką Politechniki Wrocławskiej i studiów MBA na Uniwersytecie w San Francisco. Dzięki doświadczeniu w firmach high-tech w Europie i w USA Urszula posiada unikalną perspektywę na wykorzystanie technologii do transformacji biznesowej firm. Jej zaangażowanie w adopcję inteligentnych rozwiązań AI pomaga firmom w osiągnięciu nowych poziomów efektywności i innowacyjności.

Dzisiaj Urszula podzieli się z nami swoimi spostrzeżeniami na temat rozwiązań AI w Salesforce i omówi jak technologia ta rewolucjonizuje interakcje z klientami, sprzedaż i marketing. Przygotujcie się na fascynującą rozmowę, która zagłębi się w świat AI, odkrywając jego potencjał i wpływ na przyszłość biznesu. Nie wiem czy pamiętacie naszą pierwszą rozmowę, którą również przeprowadzaliśmy w ramach pierwszej serii podcastów Salesforce na wyciągnięcie ręki, gdzie obszernie poruszaliśmy temat sztucznej inteligencji, nie tylko jeżeli chodzi o ten nowy generatywny AI, również mówiliśmy o predyktywnym AI, więc zachęcamy bardzo, żeby się cofnąć i posłuchać te poprzednie odcinki.

A dzisiaj kontynuujemy naszą rozmowę. Od naszego ostatniego spotkania troszeczkę minęło, rozmawialiśmy pod koniec października, więc Ula pytanie pierwsze do Ciebie, co się zmieniło od października jeżeli chodzi o sztuczną inteligencję w Salesforce? Nic się nie zmieniło, a dużo się wydarzyło. Strategia jest taka, jaką dokładnie jak żeśmy rozmawiali ostatnio, natomiast tuż o tej funkcjonalności generatywnej sztucznej inteligencji, którą zapowiadaliśmy, teraz jest dostępna.

I moglibyśmy rozmawiać do północy, gdybyśmy chcieli wszystko to wymienić i przejść przez te wszystkie funkcjonalności, ale podam Ci kilka przykładów. Einstein Copilot na przykład jest dostępny teraz dla sprzedaży, dla serwisu, dla marketingu, w komersie, w Tableau, to jest mnóstwo nowych funkcjonalności w tym zakresie. Jest Einstein Copilot Studio, myślę, że wejdziemy sobie w szczegóły, ale powiem Ci na przykład nawet funkcjonalności generatywne dla sprzedaży.

Wiesz, że ja jestem w zespole Sales Cloud. Były już w zeszłym roku, owszem, ale było ich kilka, a teraz są nowe, ciekawe akcje czy actions, jak my je to nazywamy. Na przykład można zapytać swój cerem, czy możesz mi znaleźć jakichś podobnych klientów do tego, albo czy możesz mi powiedzieć jak wyglądam, czy będę w stanie utrzymać swój forecast.

To są rzeczy, o których ostatnim razem nie mogliśmy mówić, bo ich jeszcze nie było, wszystko świeże. Podam Ci jeszcze dwa przykłady. Na przykład w marketingu generatywna sztuczna inteligencja pozwala nam na budowanie segmentów przez opisywanie co ma być w tym segmencie, co jest po prostu zupełnie inną jakością, albo tworzenie promocyjnych e-maili, a nawet obrazów do wykorzystania w tych mailach.

Nie mówię o malowaniu obrazów, sztuka to jeszcze nasza działka. Salesforce, stajemy w tym czym jesteśmy silni, czyli customer 360. Potem Ci jeszcze jeden przykład z Commerce Cloud.

Generatywna sztuczna inteligencja pozwala na przykład kupującym na stronach e-commerce nawigować po stronie, zadawać pytania. Na pewno miałeś czasami takie, ok, wiem, że chcę coś kupić, ale nie jestem w stanie tego znaleźć na stronie. To mamy gotowe rozwiązanie do tego.

Możemy też na przykład, podobnie jak w marketingu, właściciele sklepów e-commerce mogą sobie na przykład definiować w języku naturalnym promocje, jakie chcą wdrożyć. Także to kilka zajawek na początek. To mnie pozytywnie zaskoczyło, bo dużo się wydarzyło.

W rzeczywiście tak krótkim czasie sporo nowych rzeczy funkcjonalności mamy. Tu jeszcze na początku, jeżeli chodzi o takie wprowadzenie, chciałbym troszeczkę podsumować i przybliżyć jedne z najważniejszych funkcjonalności. Dla mnie takim corem i argumentem bardzo dużym, dlaczego warto za sztuczną inteligencję korzystać w Salesforce jest Einstein Trust Layer.

I tutaj prosiłbym Cię, żebyś przypomniała nam na czym ta idea polega i czy w porównaniu do naszej ostatniej rozmowy zaszło jakieś zmiany. Trust Layer to jeden z moich ulubionych tematów i bardzo się cieszę, że możemy do niego wrócić. To jest fundament naszej architektury sztucznej inteligencji, który pozwala zapewnić bezpieczeństwo danych, ale nie tylko.

I podobnie jak w Twoim wcześniejszym pytaniu, zmieniło się może nie tak dużo, ale dużo się wydarzyło. Tak jak rozmawialiśmy, Einstein Trust Layer jest takim inteligentnym filtrem, który z jednej strony wzbogaca nasze pytanie, czyli prompt o dodatkowy kontekst na podstawie danych z TER-em. I to może wrócimy do tego, bo to jest taki element Retrieval Augmented Generation.

Nie wiem czy jest polski ekwiwalent tego wyrażenia, ale dodawanie kontekstu do promptu, które uważamy, że jest bardzo kluczową różnicą w tym jak Salesforce podchodzi do różnych agencji w stosunku do tego jak czasami klienci na to patrzą i jak niektórzy konkurenci rozwijają swoje rozwiązania. Ale cały czas mówimy też o tym, jak nie tylko dodany jest kontekst do naszego promptu, ale są też filtrowane te wrażliwe dane, które nie chcielibyśmy, żeby opuszczały nasze firmy. Czyli maskowanie danych PII, czyli Personally Identifiable Information.

To jest jedna część Einstein Trust Layer. Druga część tej funkcjonalności to jest co się dzieje po tym jak duży model językowy wygeneruje odpowiedź. I to jest oczywiście te elementy, które sprawiają, że możemy sprawdzić to co wraca pod różnym kątem.

Po pierwsze pod kątem toksyczności, a po drugie pod kątem prompt defense, czyli zapobiegania próbom przekazania takich wygenerowanych treści, które były zmanipulowane. Jak wszędzie, tam gdzie jest nowa technologia, tam są nowe sposoby do tego, żeby spróbować ją zhakować. A Einstein Trust Layer ma zbudowaną funkcjonalność, która temu zapobiega, ponieważ to nie jest stosowanie B2C, gdzie nic wielkiego się nie stanie, ale mówimy o danych klienta i mówimy o efektach tej sztucznej inteligencji, które będą wykorzystywane w biznesie, np.

odpowiedź dla tego klienta. Także jeżeli mi pozwolisz, to chciałabym się tylko zatrzymać na chwilę w tym aspekcie, jak dodajemy kontekst do prompta i co z tego wynika. Pewnie, z chęcią się też czegoś nowego dowiem.

Myślę, że ty jesteś ekspertem i tu podpytujesz mnie o rzeczy, które i tak wiesz, ale niech tak będzie. Do mnie naprawdę przemawia, jak Einstein Trust Layer właśnie łączy dwie rzeczy. Jakbyśmy popatrzyli na te duże modele językowe, to one są tak, jakbyś pomyślał o... Masz znajomego albo znajomą, która jest bardzo elokwentna i oczytana i wie wszystko, ale nie ma żadnego kontekstu.

Jeżeli tę osobę poprosisz, napisz mi list miłosny, to napiszę ci rewelacyjny list, bardzo ukwiecony, ale tam nie będzie żadnego kontekstu, nawet imienia tej osoby, do której miał ten list być. To możesz sobie myśleć, ha, mógłbym sobie taki naprawdę copy-paste skądś ściągnąć, dlaczego muszę go generować. A ten Retrieval Augmented Generation to jest dodawanie właśnie kontekstu do tego zapytania.

Czyli pomyśl o tym, jakby to był jakiś bardzo ścipski kuzyn. Wie wszystko o tobie i o tej osobie, do której ten list będzie pisany, i gdzie się spotkaliście, i gdzie była pierwsza randka, i czy kupujemy kwiaty, czy nie kupujemy kwiatu, i że zaadoptowaliśmy psa, i to naprawdę skomentowało związek. Czyli ma wszystkie te wydarzenia, cały kontekst.

Ale nie jest szczególnie elokwentny, nie napiszę ci tego listu. Ale jeżeli wyślesz zapytanie do LLM-a, który jest tą elokwentnym, a dasz szansę temu ścipskiemu kuzynowi i dodać cały kontekst, to będziesz miał rewelacyjny list miłosny ze wszystkimi szczegółami, które tam powinny być. A to jest długa może sprawa, żeby powiedzieć, że tak mniej więcej działa Einstein Translator.

Jak my zapytamy, napisz mi e-mail, który zaprosi klienta na spotkanie, to Retrieval Augmented Generation doda cały kontekst CRM, doda jaki to jest klient, i jakie już były wcześniej spotkania, i jakimi produktami ten klient jest zainteresowany, i to się ma z nim spotkać. I ten cały prompt, czyli to zapytanie, które użytkownik pisał, plus cały ten kontekst zostanie dołączony do niego, tak, że ten model będzie miał dostęp nie tylko do samego zapytania, ale właśnie do całego kontekstu. I odpowiedź, którą dostaniemy, będzie dużo, dużo wyższej jakości i bardziej odpowiednia do tego, czego użytkownik potrzebuje.

Brzmi nieźle, naprawdę super, czyli nie muszę pisać promptów z całą historią, jeżeli może skorzystać z mojego kontekstu, więc na pewno ułatwia, przyspiesza całą pracę. Nie masz szansy pewnie pisania promptów z całym kontekstem, nawet gdybyś chciał. Szczególnie, że niektóre prompty w CRM już teraz to nie są nawet zapytania, tylko są przyciski.

Jeżeli na przykład masz przycisk podsumowuj rozmowę, jest nagranie z rozmowy i dostaniesz podsumowanie tej rozmowy, to nie musisz mówić, jaka to jest rozmowa. Ten standardowy prompt da ci standardowe podsumowanie tej rozmowy. Super.

Przejdziemy jeszcze sobie do tego szczegółowego. Na pewno podpytam cię o sztuczną inteligencję w sprzedaży. To sobie omówimy kilka różnych fajnych case'ów.

Wspomniałaś i też chciałbym przypomnieć tę kwestię modeli językowych LLM. Przypomnijmy naszym słuchaczom, co to jest i dlaczego to jest ważne, bo to też mówimy w podejściu Asha Interest Layer. Jeszcze tylko jedną rzecz chciałam ci powiedzieć, zanim się zanurzymy w LLM.

Oficjalnie możemy przyznać, że terminów związanych ze sztuczną inteligencją jest sporo. Czasami fajnie jest móc sobie doczytać, co to albo inne wyrażenie oznacza. Przy tej okazji chciałam zareklamować, że na stronie Salesforce można znaleźć taki mini słowniczek od A do Z. Dla liderów biznesu, czyli nie w języku bardzo technicznym.

Chyba z 40 różnych tematów, każdy w bardzo przystępny sposób opisany. Bardzo chętnie się podzielę. Jeszcze podpowiem, że taki słowniczek tłumaczyliśmy na język polski i na stronie coffeeforce.pl można też zobaczyć taką wersję polskojęzyczną, gdzie ten cały content próbowaliśmy właśnie tłumaczyć.

Za źródłem oczywiście z odniesieniem do tej strony, o której wspominasz. Więc co to są duże modele językowe, czy large language models? To jest rodzaj sztucznej inteligencji, która została przeszkolona na bardzo dużych zbiorach danych tekstowych. I w związku z tym może tworzyć naturalnie brzmiący tekst na podstawie zadanego pytania, czyli promptu.

W zależności od tego, jaki to jest model, może on na przykład odpowiadać na pytania, albo pisać eseje, albo nawet pisać wiersze, albo generować kod dla deweloperów. W zastosowaniach biznesowych, szczególnie w kontekście CRM-u, ważne jest to, że użycie tych dużych modelów językowych umożliwia naturalnej rozmowy z systemem. W tradycyjnym oprogramowaniu potrzebowaliśmy, żeby użytkownicy przestawili się na sposób komunikowania się z systemem, czyli na przykład wypełniali formularze, wypełniali listy, wyszukiwali w tabelach, przeglądali raporty.

A dzięki LLM-om zyskujemy jakby nowy interfejs, ponieważ możemy zapytać, tak jak w przypadku Einsteina Copilota, na przykład, jakie produkty najlepiej zarekomendować temu klientowi i dostaniemy odpowiedź w naturalnym języku. Albo możemy przekazać instrukcję, poszukaj możliwych duplikatów tego lida i też dostaniemy odpowiedź. Może to nie będzie esej, może to będzie lista tych potencjalnych duplikatów, z których możemy wybrać.

I na koniec chciałam tylko jeszcze dodać jedną rzecz, co może widzimy w takim podejściu klientów, że trochę te duże modele językowe są pozycjonowane jako taki święty graal sztucznej inteligencji. A to nie jest całość rozwiązania, to jest tylko bardzo, bardzo ważny element. I jako Salesforce podchodzimy dlatego do modelów językowych na zasadzie, chcemy żeby nasza architektura była otwarta i mamy to podejście albo dajemy klientom możliwość wyboru modelu, albo podłączenia własnych modeli, czyli to bring your own model zgodnie z ich potrzebami.

I tych modeli mamy różne, ale możemy podzielić albo wykorzystać różne modele per jakaś konkretna branża. Bo wiadomo, mamy model ogólnodostępny, mam tutaj na myśli chyba ten najbardziej tradycyjny, którego chyba wszyscy korzystamy, ale czy mamy też takie modele bardziej specyficzne pod konkretne branże, które możemy sobie podczepić i połączyć z Salesforce? Możemy sobie je podłączyć. My mamy standardowe konektory do głównych tych modeli, które nie są specyficzne dla żadnej branży.

Natomiast można sobie podłączyć modele, nie wiem, jesteś producentem samochodów na przykład i masz model, który wykorzystuje dane telemetryki pojazdu. Możesz sobie ten model też podłączyć. Ok, a mogłabyś wspomnieć o jakichś takich konkretnych przypadkach użycia, wykorzystywaniu modeli językowych w różnych branżach? Wiesz co, pierwsza, która mi przychodzi do głowy, to jest na przykład w branży wzrony zdrowia.

Dużo jest takich use cases, czy powiedzmy przypadków użycia, jak na przykład podsumowanie historii zdrowia pacjenta. Czyli jeżeli przechodzimy do lekarza albo przechodzimy po jakąś terapię, to osoba, która z nami się będzie tam kontaktowała, zamiast przeglądania różnych dokumentów, patrzenia o jakie tam były wyniki rentgena, jakie były wyniki badań krwi, dostaje po prostu podsumowanie naszego zdrowia. Ale też na przykład też z branży ochrony zdrowia, jeżeli mamy wątpliwość co do tego, jakie usługi są pokryte w ramach naszego ubezpieczenia zdrowotnego.

Może chcielibyśmy, żebyśmy mogli po prostu, żeby ktoś nam to wytłumaczył, a nie odsyłał nas do pięćdziesięciu stron, maciupeńkim druczkiem, z którym będziemy musieli dopiero sami domyślić się, czy coś, co chcemy, czy jakiś lek, czy jakieś świadczenie jest refundowane. To byłby przykład, jak modele językowe mogą na przykład pomagać w tej branży, w innej branży, z innej beczki, powiedzmy, w branży finansowej na przykład, w ubezpieczeniach. Podobnie jest bardzo dużo sytuacji, w których chcielibyśmy na przykład zwięzłe podsumowanie polisy ubezpieczeniowe jakiegoś klienta.

Ale nie tylko tego, też może odpowiedzi na pytanie, o co tak naprawdę chodzi w tej zgłoszonej szkodzie. I w związku z tym zaproponowanie, jakie mamy opcje, żeby zaoferować odszkodowanie. Zdecydowanie dużo tych opcji jest.

Próbowałem ostatnio odzyskać od ubezpieczyciela polisę. Niestety nie przeanalizowałem całej umowy, a takie zapytanie by się przydało i bym wiedział. Też może jakiego kolejnego ubezpieczyciela sobie wybrać na przyszłość.

Ewelacja dla klientów, prawda? Tak, zdecydowanie. Mam nadzieję, że to w tym kierunku będzie szło. Zanim jeszcze przejdziemy do konkretu, do, tak powiem, krokwileń takiego mięsa i porozmawiają sobie o Salesforce, o sztucznej inteligencji typowo, ostatnie zagadnienie, z którym też się spotkamy, jeżeli chodzi o analiza danych.

Podczas sztucznej inteligencji mówimy ok, analizowanie danych, tutaj mamy cały aparat statystyczny, teraz weszła sztuczna inteligencja generatywna AI, no i jakie mamy teraz tutaj korzyści z zastosowania AI, jeżeli chodzi o analizę danych, o tradycyjne metody, którymi się wcześniej posługiwaliśmy. To jest ciekawe pytanie, bo z jednej strony można pomyśleć, że w analizie danych już wszystko, co miało być wynalezione, zostało wynalezione. Mamy i wizualizacje, i dashboardy, które się same update'ują, i dużo różnych rzeczy, i właściwie jak tu przykleić tą generatywną inteligencję.

Ale jeden z zalet, to właściwie powiedzieliśmy już o tym i to jakby jest jeszcze tylko jedno zastosowanie, czyli to jest łatwość, przyjazność tego interfejsu, że możemy analizować dane w języku naturalnym, czyli tak jakbyśmy rozmawiali z kimś, kto z nami pracuje, moglibyśmy po prostu sformułować jakieś zapytanie i osoba, która się zna, mogłaby nam powiedzieć, to, co widzę na raporcie, to ABC. Teraz możemy sformułować to zapytanie bezpośrednio przez użycie generatywnej i sztucznej inteligencji, ale też możemy na przykład sprostować to zapytanie, jeżeli odpowiedź, którą dostaliśmy, niekoniecznie była dokładnie tym, czego szukaliśmy, czyli możemy jakby mieć tą rozmowę. To oznacza, że zmniejsza się taka bariera do analizy danych, czyli może nie potrzebujemy pomocy analityka, albo pomocy dewelopera i jest więcej rzeczy, które użytkownicy biznesowi mogą sami zrobić sobie self-service.

Ale to nie wszystko, bo bardzo dużą zaletą jest to, że generatywna sztuczna inteligencja może znaleźć w danych trendy albo jakieś zależności, które by umknęły ludzkiemu analitykowi. I to może zrobić na dużych zbiorach danych i może to zrobić dużo, dużo szybciej. To jest zaleta, z którą ludziom trudno jest konkurować, należy z niej skorzystać.

I na koniec generatywna sztuczna inteligencja się nie nudzi. A to oznacza, że można ją wykorzystać po to, żeby zautomatyzować sobie gadania, które są powtarzalne. I to otwiera drzwi do tego, żeby analitycy mogli się skoncentrować na bardziej strategicznych, kreatywnych elementach swojej pracy, a mieli asystenta, który wykonuje im te jakby czynności, które wiedzą jak robić.

To nie jest tak, że to przekracza czyichś możliwości, ale być może nie wciągają ich tak bardzo. Myślę, że też to będzie zdecydowanie bardziej przystępniejsze to, co powiedziałaś. Bo przypomnijmy sobie nasze studia, bo oboje tak studiowaliśmy na Politechnice Wrocławskiej, gdzie była też statystyka i sobie przypomnijmy, ile tam różnych rzeczy były w wariancie odchylenia standardowej.

Nie będę straszył innymi trudnymi pojęciami. I to było niedostępne i trudne też. A w tym momencie wykorzystując generatywno-sztuczną inteligencję, możemy w łatwy, szybki sposób, tak naprawdę każdy może sobie z tego skorzystać.

Może nie aż tak na zaawansowanym poziomie, ale tą analizę danych w końcu konkretną mieć. Zgadza się. Możemy właśnie zapytać, a nie koniecznie musieć mieć cały ten aparat matematyczny do tego, żeby znaleźć w sobie w danych to, co właśnie wyszkolony analityk mógłby nam znaleźć.

Super. A to już koniec pierwszej części podcastu. Zapraszam na kolejne dwie, gdzie rozmawiać będziemy o Einstein Copilot, zastosowaniach automatyzacji Flow i wiele, wiele innych.

Zatem zróbmy sobie teraz krótką przerwę na łyk kawy i zapraszamy Was na kolejne części. Do usłyszenia za chwilę. Aktualności.

Wydarzenia. Nie tylko przy kawie.

Gospodarz podcastu:

Łukasz Bujło

Twórca portalu, lider społeczności Wrocław Trailblazer Community

Type at least 1 character to search