Słownik generatywnej sztucznej inteligencji dla liderów biznesu – cz. II
Kontynuujemy drugą część naszego słowniczka dotyczącego AI.
Jeśli nie czytaliście pierwszej części, dostępna jest tutaj: Słownik generatywnej sztucznej inteligencji dla liderów biznesu cz. I
Dyskryminator (w sieci GAN) - Discriminator
W Generative Adversarial Network (GAN) dyskryminator jest jak detektyw. Kiedy pokazuje mu się zdjęcia (lub inne dane), musi odgadnąć, które z nich są prawdziwe, a które fałszywe. „Prawdziwe” obrazy pochodzą ze zbioru danych, podczas gdy „fałszywe” są tworzone przez drugą część GAN, zwaną generatorem. Zadaniem dyskryminatora jest coraz lepsze odróżnianie obrazów prawdziwych od fałszywych, podczas gdy generator stara się być coraz lepszy w tworzeniu fałszywych. Jest to programowa wersja ciągłego budowania lepszej pułapki na myszy.
Co to oznacza dla klientów?
Dyskryminatory w sieciach GAN są ważną częścią wykrywania oszustw, więc ich użycie prowadzi do bezpieczniejszego doświadczenia klienta.
Co to oznacza dla zespołów?
Dyskryminatory w sieciach GAN pomagają zespołowi ocenić jakość syntetycznych danych lub treści. Pomagają w wykrywaniu oszustw i wspierają spersonalizowany marketing.
Model dojrzałości etycznej sztucznej inteligencji - Ethical AI maturity model
Model dojrzałości etycznej sztucznej inteligencji to ramy, które pomagają organizacjom oceniać i ulepszać ich etyczne praktyki w zakresie korzystania z technologii sztucznej inteligencji. Przedstawia on sposoby, w jakie organizacje mogą ocenić swoje obecne etyczne praktyki w zakresie sztucznej inteligencji, a następnie przejść do bardziej odpowiedzialnego i godnego zaufania wykorzystania sztucznej inteligencji. Obejmuje on kwestie związane z przejrzystością, uczciwością, prywatnością danych, odpowiedzialnością i obiektywizmem w prognozach.
Co to oznacza dla klientów?
Posiadanie etycznego modelu sztucznej inteligencji i otwartość na temat tego, w jaki sposób korzystasz ze sztucznej inteligencji, pomaga budować zaufanie i zapewnia klientów, że wykorzystujesz ich dane w odpowiedzialny sposób.
Co to oznacza dla zespołów?
Regularna ocena praktyk z użyciem AI i zachowanie przejrzystości w zakresie korzystania z AI może pomóc w zachowaniu zgodności z etycznymi wartościami firmy i wartościami społecznymi.
Wytłumaczalna sztuczna inteligencja (XAI) - Explainable AI
Pamiętasz, jak poproszono Cię o pokazanie swojej pracy na lekcji matematyki? Właśnie o to prosimy sztuczną inteligencję. Wytłumaczalna sztuczna inteligencja (XAI) powinna zapewniać wgląd w to, co wpłynęło na jej wyniki i co pomoże użytkownikom interpretować (i ufać!) jej wyniki. Ten rodzaj przejrzystości jest ważny w przypadku wrażliwych systemów, takich jak opieka zdrowotna lub finanse, gdzie wyjaśnienia są wymagane w celu zapewnienia uczciwości, odpowiedzialności, a w niektórych przypadkach zgodności z przepisami.
Co to oznacza dla klientów?
Jeśli system sztucznej inteligencji potrafi wyjaśnić swoje decyzje w sposób zrozumiały dla klientów, zwiększa to jego niezawodność i wiarygodność. Zwiększa to również zaufanie użytkowników, szczególnie w obszarach wrażliwych, takich jak opieka zdrowotna czy finanse.
Co to oznacza dla zespołów?
XAI może pomóc pracownikom zrozumieć, dlaczego model dokonał określonej prognozy. Nie tylko zwiększa to ich zaufanie do systemu, ale także wspiera podejmowanie lepszych decyzji i może pomóc w udoskonaleniu systemu.
Generatywna sztuczna inteligencja - Generative AI
Generatywna sztuczna inteligencja to dziedzina, która koncentruje się na tworzeniu nowych treści w oparciu o istniejące dane. W przypadku systemu CRM generatywna sztuczna inteligencja może być wykorzystywana do tworzenia szeregu przydatnych rzeczy, od pisania spersonalizowanych treści marketingowych po generowanie danych syntetycznych w celu testowania nowych funkcji lub strategii.
Co to oznacza dla klientów?
Lepsze i bardziej ukierunkowane treści marketingowe, które pomagają im uzyskać dokładnie te informacje, których potrzebują.
Co to oznacza dla zespołów?
Szybsze tworzenie kampanii marketingowych i ruchu sprzedażowego, a także możliwość testowania wielu strategii na syntetycznych zestawach danych i optymalizowania ich przed uruchomieniem.
Generatywna sieć kontradyktoryjna (GAN) - Generative adversarial network
GAN składa się z dwóch sieci neuronowych: generatora i dyskryminatora. Te dwie sieci konkurują ze sobą, przy czym generator tworzy dane wyjściowe w oparciu o pewne dane wejściowe, a dyskryminator próbuje określić, czy dane wyjściowe są prawdziwe, czy fałszywe. Generator następnie precyzuje swoje dane wyjściowe w oparciu o informacje zwrotne z dyskryminatora, a prices ten trwa do momentu, w którym dyskryminator zostanie zablokowany.
Co to oznacza dla klientów?
GAN pozwalają na wysoce spersonalizowany marketing, który wykorzystuje spersonalizowane obrazy lub tekst – na przykład niestandardowe obrazy promocyjne dla każdego klienta.
Co to oznacza dla zespołów?
GAN mogą pomóc zespołowi programistów w generowaniu danych syntetycznych, gdy brakuje danych klientów. Jest to szczególnie przydatne, gdy pojawiają się obawy o prywatność związane z wykorzystaniem prawdziwych danych klientów.
Powyżej udostępniamy Wam tłumaczenie artykułu z 19 czerwca 2023 roku dostępnego na stronie Salesforce.com pod adresem https://www.salesforce.com/blog/generative-ai-glossary/ Wszelkie prawa do artykułu przysługują Salesforce, Inc. z siedzibą w San Francisco, USA.
Written by Wojciech Niżankowski
Redakcja coffee & force