Bielik to nie jedyny polski model językowy

Bielik to nie jedyny polski model językowy
BankTech 2025. Michał Macierzyński, Sebastian Kondracki. Fot. M.Wagner
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Podczas tegorocznej konferencji BankTech firechat: „Monetyzacja rozwiązań technologicznych? Status i plany wdrożeń, najważniejsze fakty” – poprowadził Michał Macierzyński, dyrektor Departamentu Usług Cyfrowych w PKO Banku Polskim, a jego rozmówcą był Sebastian Kondracki współtwórca modelu językowego Bielik AI.

Jak stwierdził Sebastian Kondracki, Bielik to duży model LLM (duży model językowy). Różnica między Bielikiem a takim modelem LLM jak ChatGPT polega na tym, że ten drugi jest obudowany i sięga do danych z Internetu, dlatego też Bielik nie odpowie na każde pytanie.

Różnicą jest też to, że Bielika można uruchomić na własnej albo na dowolnej architekturze IT (serwerze, komputerze z odpowiednim GPU, nawet na laptopie). Jak podkreślił, to ważny element lokalizacyjny, jeśli chodzi o banki.

Model jest rozwijany przez społeczność i nie ma też takiego budżetu jak OpenAI, utrzymuje się z pracy i wpłat społeczności entuzjastów. Wśród rozwijających Bielika jest wiele osób z biznesów regulowanych, które rozwijają ten model np. pod względem bezpieczeństwa.

Czytaj także: BankTech 2025: suwerenna AI w bankowości to już dzień dzisiejszy

Bielik na miarę użytkowników

Sebastian Kondracki przyrównał moc dużych modeli biznesowych do silnika samochodu. Tak jak silnik ma pojemność i świadczy to w pewien sposób o jego mocy, tak też model językowy ma parametry. Bielik ma 11 mld parametrów, a już pierwsza wersja ChatGPT, czyli wersja 3.5 miała ok. 167 mld parametrów.

Tak jak w przypadku silnika samochodu nie zawsze trzeba, żeby miał on największą moc, tak i w przypadku modeli LLM do konkretnego celu lepiej skorzystać z modelu np. takiego jak Bielik, który można uruchomić na jednej karcie GPU.

Ta moc pozwala już przetwarzać informacje, jakie są potrzebne w bankowości, klasyfikować je, strukturyzować, upraszczać komunikację, czy wyciągać wnioski np. z wiedzy o kliencie itp. Wszystko zostaje na serwerach banku.

To, co różni go od innych modeli LLM to, że potrafią się one komunikować w prawie każdym języku świata, a Bielik skupia się na języku polskim.

Czytaj także: Marcin Zygmanowski, wiceprezes Banku Pekao SA entuzjastą technologii

BankTech 2025: nie tylko Bielik – jest też PLLuM

Sebastian Kondracki zwrócił uwagę, że przy wdrażaniu Bielika w zależności gdzie chce się go użyć, jest on odpowiednio parametryzowany.

Choć mamy w Polsce drugi model LLM, czyli PLLuM to każdy specjalizuje się trochę w czymś innym. PLLuM został stworzony głównie z myślą o potrzebach sektora publicznego i komunikacji z obywatelem. Natomiast Bielik ma odpowiadać na potrzeby biznesowe.

W Polsce powinniśmy specjalizować się w modelach niszowych. Bielik korzysta z danych bardzo zróżnicowanych, ale wysokiej jakości. Należy też korzystać z danych, nie naruszając cudzych licencji. Inne modele językowe trenowane są np. głównie na tekstach w języku angielskim i mogą nie znać niuansów naszego języka potocznego.

Czy AI odbierze ludziom pracę? Badania pokazują, że jeśli wdraża się inteligencję kolaboratywną, to uzyskuje się dodanie super mocy, czyli ogromny wzrost wartości biznesowych, a nie tylko ograniczenie etatów.

Czytaj także: BankTech 2025 o cyfrowej przyszłości finansów

Źródło: BANK.pl