Dell Technologies Forum 2025 o nowych trendach i stałym postępie w rozwoju AI

Dell Technologies Forum 2025 o nowych trendach i stałym postępie w rozwoju AI
Dell Technologies Forum 2025. Źródło: BANK.pl
Podczas październikowego Dell Technologies Forum 2025 pokazano, że obecnie AI przeszło już drogę od eksperymentów do praktycznego wykorzystania w firmach i organizacjach. Udało się też połączyć w jednym środowisku: inteligentne komputery, infrastrukturę danych i rozwiązania chmurowe. Dell pokazał także swoje funkcjonalne, zintegrowane środowisko. Choć nadal czekamy na tzw. ogólną sztuczną inteligencję – AGI (Artificial General Intelligence), czyli zaawansowaną jej formę zdolną rozumieć, uczyć się i stosować zdobytą wiedzę, tak jak robią to ludzie, to od kilku lat wdraża się konkretne rozwiązania AI, które realnie zwiększają produktywność.

Jak tłumaczył Wojciech Janusz, EMEA Data Science & AI Horizontal Lead w Dell Technologies – początek dużych modeli językowych takich jak ChatGPT i modeli z 175 mld parametrów, z początkiem zdolności do uczenia się, to dopiero 2020 rok.

W kolejnych latach dążono do zapewnienia jakości opartej na faktach i zmniejszenia halucynacji modeli AI. W latach 2022–2023 coraz powszechniej stosowano też sztuczną inteligencję w przedsiębiorstwach.

Jak stwierdził ekspert – w 2025 roku rynek związany ze sztuczną inteligencją podzielił się na trzy główne części. To rozwiązania AI znane i używane, ale nie będące GenAI (tradycyjne AI).

Drugi to rynek treningowy, na którym rozwijają swoje rozwiązania najwięksi gracze tacy jak: Meta, Google, Microsoft, OpenAI itp. To wielomiliardowe zamknięte projekty, prowadzone w wielkiej skali — to rynek budowania dużych modeli, który nie przekłada się bezpośrednio na to, z czego korzystają klienci biznesowi.

Trzeci, i np. dla firmy Dell najważniejszy, to rynek Enterprise, który ewoluował w 2025 roku, przechodząc z chmury i centrów danych do modeli, które można uruchomić już na urządzeniach końcowych.

Czytaj także: Wierzyć AI czy się jej bać?

Obserwujemy równocześnie ewolucję sprzętu, wzrost wydajności i nowe opcje sprzętowe. Można tu wymienić procesory graficzne (GPU), NPU, VRAM. Zmniejszył się stosunek kosztów do wydajności GPU. Nastąpiła kwantyzacja modeli, polegająca na przejściu z wnioskowania 16-bitowego na 4-bitowe, co zwiększa wydajność czterokrotnie lub nawet więcej razy.

Równocześnie optymalizacja oprogramowania zmniejsza zapotrzebowanie na moc obliczeniową i przepustowość pamięci, eliminując dotychczasowe wąskie gardła.

Jak się okazuje mniejsze, bardziej wydajne modele AI przewyższają teraz starsze, znacznie większe modele dzięki lepszemu wykorzystaniu danych treningowych. Z kolei ulepszone metody dostrajania instrukcji, takie jak RLHF i DPO, poprawiają wydajność po treningu.

Należy też podkreślić, że modele open source od Meta, Mistral itp. obniżają koszty dzięki szerszej dostępności i konkurencji.

Jak podkreślił Wojciech Janusz – tradycyjne modele machine learning współpracujące z dużymi modelami językowymi, to aktualny trend np. w bankowości, bezpieczeństwie i w przemyśle.

Należy też wspomnieć o technologii destylacji modeli. W grudniu 2024 r. pojawił się Deep Seek model, który był destylacją modeli amerykańskich. Destylacja polega na tym, że mamy wielki model językowy z miliardami parametrów i przygotowujemy z niego mały wyspecjalizowany model.

Obecnie każdy model AI, który powstaje na rynku, jest przygotowywany tą metodą. W ten sposób można przygotować małe modele AI, bardzo dobre w swojej dziedzinie. Jeśli połączy się tu drzewa wiedzy i odpowiedzi umocowane w faktach, to jest to przełom potrzebny przede wszystkim w finansach, w prawie i medycynie.

Chcemy wiedzieć, na jakiej podstawie sztuczna inteligencja przygotowała daną odpowiedź. Natomiast filozofia modeli otwartych zakłada możliwość ich dokształcania z czasem przez użytkowników.

Technologia AI w praktyce

Podkreślano, że AI nie jest już eksperymentem – to technologia działająca w tle każdej decyzji i procesu.

W trakcie Forum podano przykłady AI w architekturze RAG (Retrieval Augmented Generation), usprawniającej codzienne zadania pracowników biura. Dzięki sprawnemu i bezpiecznemu wykorzystaniu danych organizacji, pracownicy mogą uzyskać precyzyjne, zweryfikowane informacje bez konieczności przeszukiwania tysięcy stron dokumentacji.

AI pomaga dziś w zarządzaniu wiedzą – potrafi automatycznie analizować setki wiadomości i notatek, tworząc zwięzłe podsumowania i odpowiadając na pytania w języku naturalnym.

Zwrócono uwagę, że skuteczne projekty AI zaczynają się nie od modelu, lecz od danych i infrastruktury.

Jak podaje Gartner, ponad 40% projektów agentic AI zostanie anulowanych do 2027 roku – nie z powodu algorytmów, lecz braku solidnych fundamentów technologicznych.

Pokazano komputery PC nowej generacji, które pozwalają wykorzystywać sztuczną inteligencję przetwarzającą dane lokalnie, z zachowaniem prywatności. Już na zwykłym laptopie można dziś uruchomić model z 13 mld parametrów, a na średnim PC z 50 mld. Natomiast na mocnej stacji roboczej nawet ze 100 mld parametrów i jest to już poziom GPT-3, który jeszcze kilka lat temu wymagał setek serwerów.

Podsumowując – widać, że rozwój technologii związanych z AI postępuje bardzo szybko i równocześnie uczymy się wykorzystywać biznesowo te nowe narzędzia. Poznajemy ograniczenia, liczymy koszty i zyski.

Czy zatem należy nadal czekać, co z tego wszystkiego wyniknie? Nie, bo już dziś przemawiają za tymi nowymi rozwiązaniami konkretne efekty biznesowe.

Tegoroczna edycja Dell Technologies Forum odbyła się pod hasłem „AI. Po prostu” i uczestniczyło w niej ponad dwa tysiące osób.

Dell Technologies Forum 2025
Dell Technologies Forum 2025. Źródło: BANK.pl / Dell
Źródło: Portal Finansowy BANK.pl