Bloomberg razvija velik jezikovni model za finance

Več podjetij razvija velike jezikovne modele. Med najbolj zanimivimi je podatkovni in novičarski gigant Bloomberg.

Bloomberg, ki ga je ustanovil nekdanji župan New Yorka, Mike Bloomberg, kot finančno podatkovno hišo z novičarsko divizijo, ki temelji na kvantitativni analizi, je predstavil BloombergGPT. Jezikovni model je usposobljen na “širokem spektru” finančnih podatkov za podporo “raznolikemu” naboru nalog naravnega jezikovnega procesiranja (NLP) v industriji, je povedalo podjetje.

Podjetje je povedalo, da kljub napredkom v velikih jezikovnih modelih, ki so pokazali nove aplikacije, “zapletenost in edinstvena terminologija finančne domene zahtevata specifičen model.”

BloombergGPT bo uporabljen za finančne naloge, kot so analiza sentimenta, klasifikacija novic in odgovarjanje na vprašanja. Model bo uporabljen pri novih načinih rudarjenja v obsežnih zakladnicah podatkov, dostopnih preko Bloomberg terminalov.

Kako se primerja BloombergGPT?

Glede velikosti je BloombergGPT sestavljen iz 50 milijard parametrov. Za primerjavo: GPT-3 podjetja OpenAI, ki je bil nedavno zasenčen s strani GPT-4, šteje 175 milijard parametrov.

BloombergGPT je za LLM AI modele sorazmerno majhen, a je model usposobljen za zelo specifične finančne naloge, kar pomeni, da ne potrebuje bolj splošnih podatkov, kot jih ima recimo model OpenAI.

Model so ustvarili z uporabo obsežnega arhiva finančnih podatkov Bloomberg, ter nekaterih javnih podatkov, skupaj jih je kar 700 milijard.

Bloomberg meni, da njihov model “opazno prekaša obstoječe odprte modele podobne velikosti pri finančnih nalogah.” V bolj splošnih testih merjenja pa BloombergGPT ni uspel premagati GPT-3 podjetja OpenAI, vendar je dosegel rezultate, ki niso bili daleč od tega.