Da li je DeepSeek pronašao pametniji i jeftiniji put do veštačke inteligencije?
Kineski DeepSeek je iznenadio globalnu industriju veštačke inteligencije izgradnjom naprednog modela, DeepSeek V3.2, koji pruža performanse slične nekim od najmoćnijih sistema, a ipak koristi daleko manje računarske snage. Dok velike tehnološke kompanije troše milijarde na masivne klastere za obuku, DeepSeek pokazuje da inteligentni dizajn ponekad može da zameni skupi hardver. Njihov model radi na istom nivou kao OpenAI-jev GPT-5 u zadacima rezonovanja, iako je trenirao sa daleko manje ukupnih operacija. Ovo dostignuće dovodi u pitanje verovanje da samo ogromni budžeti mogu da proizvedu veštačku inteligenciju na graničnom nivou.
Za preduzeća, ovaj razvoj je važan jer pokazuje da visokokvalitetna veštačka inteligencija ne zahteva uvek skupu infrastrukturu. Pošto je DeepSeek V3.2 otvorenog koda, organizacije mogu da testiraju napredne funkcije rezonovanja i automatizacije, a da pritom zadrže potpunu kontrolu nad načinom na koji koriste i primenjuju sistem. DeepSeek je objavio dve verzije: standardnu V3.2 i Speciale verziju. Model „Speciale“ je osvojio zlatne medalje na vodećim svetskim takmičenjima iz matematike i informatike, rezultate koje su ranije postizali samo tajni interni sistemi iz velikih američkih laboratorija za veštačku inteligenciju.
Ono što ovo čini još impresivnijim jeste to što DeepSeek radi pod ograničenjima izvoza hardvera, što ograničava njegov pristup najsavremenijim čipovima. Njihov uspeh dolazi od efikasnosti, a ne od obima. Tim je razvio metodu pod nazivom DeepSeek Sparse Attention (DSA), koja smanjuje količinu informacija koje model treba da obradi odjednom. Umesto da svaki deo unosa tretira podjednako, sistem bira samo najrelevantnije delove, smanjujući nepotrebno izračunavanje uz održavanje tačnosti.
Kao rezultat toga, DeepSeek V3.2 je postigao najbolje rezultate u nekoliko konkurentnih testova rezonovanja, uključujući AIME 2025 i Codeforces izazove. Model takođe zadržava interne korake rezonovanja tokom zadataka sa višestrukim okretajima, posebno kada se koriste alati, što ga čini efikasnijim za kodiranje, rešavanje problema i radne procese u stilu agenta. U ključnim inženjerskim testovima, kao što je SWE-Verified, model je pokazao snažne rezultate, dokazujući da njegov dizajn koristi razvoju softvera u stvarnom svetu, a ne samo akademskim testovima. Da bi trenirao agentsko ponašanje, DeepSeek je kreirao preko 1.800 simuliranih okruženja i desetine hiljada složenih zadataka, pomažući modelu da nauči kako da rasuđuje i deluje u nepoznatim situacijama.
Iako je osnovna verzija javno dostupna na Hugging Face-u, jača Speciale verzija je samo API jer zahteva više tokena i resursa. Kompanija takođe priznaje da model i dalje koristi više tokena nego što je idealno i da je njegovo opšte znanje o svetu uže od najvećih vlasničkih modela. Budući rad će se fokusirati na proširenje podataka za obuku, poboljšanje efikasnosti i jačanje složenog rasuđivanja. Objavljivanje DeepSeek V3.2 signalizira da inovacije, ne samo sirova računarska snaga, mogu oblikovati budućnost napredne veštačke inteligencije.
(Telegraf.rs/Goran Lazarov)
Video: Izjava Dubravke Đedović Handanović nakon sastanka sa predstavnicima malih naftnih kompanija.
Telegraf Biznis zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.