Skip to main content

Meet Raiff #7: Jak rozmawiać z danymi tabelarycznymi – case study chatbota z Raiffeisen Tech i Grupy RBI

Modele językowe (LLMs) odgrywają coraz większą rolę w biznesie, ale ich praktyczne zastosowanie w systemach korporacyjnych wciąż jest ograniczone. Najczęściej wykorzystywane podejście – Retrieval-Augmented Generation (RAG) – świetnie sprawdza się w pracy z dokumentami, lecz w wielu firmach kluczowe dane mają formę tabel. Jak umożliwić zadawanie pytań w języku naturalnym do takich danych? Oto najważniejsze wnioski z ostatniego Meet Raiff #7.

  • Wojciech Nowak
  • Meet Raiff

Sztuczna inteligencja jako klucz do transformacji

Podczas siódmego spotkania z cyklu Meet Raiff, organizowanego we współpracy z Sages, Wojciech Nowak – GenAI Tech Lead w Raiffeisen Tech – zaprezentował praktyczne podejście do wykorzystania dużych modeli językowych (LLM) do pracy z danymi tabelarycznymi. Wystąpienie osadzone zostało w szerszym kontekście strategii Grupy Raiffeisen Bank International, która traktuje AI jako istotny katalizator transformacji organizacyjnej.

Wojciech Nowak podkreślił, że w RBI wdrożono program rozwoju sztucznej inteligencji oparty na dwóch filarach. Pierwszy to Centrum Doskonałości AI (AI Center of Excellence), drugi zaś obejmuje projekty pionierskie, które pozwalają testować nowe rozwiązania i obserwować ich realny wpływ na funkcjonowanie organizacji.

Agent sprzedażowy wspierający CRM i produktywność

Przedstawiony podczas spotkania projekt to chatbot działający w roli asystenta sprzedażowego. Jego zadaniem jest dostarczenie użytkownikom analiz i wglądów w dane biznesowe bez konieczności znajomości narzędzi SQL lub technologii bazodanowych. Rozwiązanie działa na danych CRM i wskaźnikach związanych z produktywnością sprzedaży, wspierając pracowników w codziennych procesach decyzyjnych.

Dostęp do danych realizowany jest poprzez zapytania generowane automatycznie na podstawie pytań zadawanych w języku naturalnym. LLM analizuje intencję użytkownika, interpretuje kontekst, dokonuje tłumaczenia semantycznego i ostatecznie generuje zapytania SQL, które następnie wykonywane są na faktycznych zbiorach danych.

Architektura oparta na agentach

Sercem rozwiązania jest architektura agentowa. Agent nie tylko rozumie zapytania użytkownika, lecz również planuje sposób dojścia do odpowiedzi. W ramach tego procesu:

  • identyfikuje dane potrzebne do udzielenia odpowiedzi
  • potrafi dzielić złożone pytania na mniejsze podproblemy
  • wybiera odpowiednie narzędzia przetwarzania
  • generuje oraz uruchamia kod SQL
  • łączy i interpretuje wyniki zapytań
  • korzysta z pamięci kontekstowej rozmowy

Projekt zakłada możliwość skalowania. Architektura umożliwia dodawanie nowych baz danych i funkcji bez przebudowy całego rozwiązania. Agent pełni rolę orkiestratora, podejmując autonomiczne decyzje związane z wyborem narzędzi i kolejnością działań.

MVP jako poligon doświadczalny

Prezentowane rozwiązanie powstało jako MVP z jasną intencją: sprawdzić, czy LLM mogą w sposób bezpieczny i efektywny pracować z danymi tabelarycznymi wykorzystywanymi w operacjach sprzedażowych. Eksperyment miał za zadanie zweryfikować zarówno wykonalność techniczną, jak i wartość biznesową narzędzia. Uzyskane wyniki pokazały, że rozwiązanie znacząco obniża próg wejścia w analitykę danych i pozwala szybciej uzyskiwać odpowiedzi na pytania istotne z punktu widzenia relacji z klientami.

Nie było Cię z nami? Zobacz nagranie z Meet Raiff #7

Zobacz nagranie i dowiedz się, jak sprawić, by modele LLM potrafiły „rozmawiać” z danymi tabelarycznymi!

Więcej o Meet Raiff

Meet Raiff to cykl meetupów, podczas których eksperci Raiffeisen Tech dzielą się swoją wiedzą ze stuku IT  i bankowości. Organizujemy je we współpracy z Sages. Jeśli nie było Was z nami na wcześniejszych meetupach, zapraszamy do zapoznania się z nagraniami, które znajdziecie na naszym kanale na Youtube.