Oblak Znanja

  • Home
  • Novosti
  • Učionica
    • Informatika 5
    • Informatika 6
    • Informatika 7
    • Informatika 8
    • Logo jezik
    • WordPress
    • Microsoft Office
  • Vodiči
    • Online vodiči
    • Kratki savjeti
    • Korisne aplikacije
    • Društvene mreže
    • Multimedija
    • Zanimljivosti
✕

Skriveni troškovi u AI implementaciji: Zašto Claude modeli mogu biti 20-30% skuplji od GPT-a u Poredbama poduzeća

Novosti

Skriveni troškovi u AI implementaciji: Zašto Claude modeli mogu biti 20-30% skuplji od GPT-a u Poredbama poduzeća

Tomšić Damjan 2. svibnja 2025


Poznata je činjenica da različite obitelji modela mogu koristiti različite tokenizatore. Međutim, postojala je ograničena analiza o tome kako je postupak “tokenizacija” Sama se razlikuje od ovih tokenizatora. Da li svi tokenizatori rezultiraju istim brojem tokena za određeni ulazni tekst? Ako ne, koliko su različiti generirani tokeni? Koliko su značajne razlike?

U ovom članku istražujemo ta pitanja i ispitujemo praktične implikacije varijabilnosti tokenizacije. Predstavljamo komparativnu priču o dvije pogranične obitelji modela: Openchatgpt vs AntropskiClaude. Iako su njihove reklamirane figure „troškova po cijenu po cijenu“ vrlo konkurentne, eksperimenti otkrivaju da antropski modeli mogu biti 20–30% skuplji od GPT modela.

Sadržaj objave

  • 1 Cijene API-ja-Claude 3.5 sonet vs gpt-4o
  • 2 Skrivena “neučinkovitost tokenizatora”
  • 3 Neučinkovitost tokenizacije koja ovisi o domeni
    • 3.1 Ostale praktične implikacije neučinkovitosti tokenizatora
  • 4 Provedba tokenizatora
  • 5 Ključni poduhvat
    • 5.1 Povezani sadržaji

Cijene API-ja-Claude 3.5 sonet vs gpt-4o

Od lipnja 2024., struktura cijena za ova dva napredna granična modela vrlo je konkurentna. I Anthropic’s Claude 3.5 sonet i Openai’s GPT-4O imaju identične troškove za izlazne tokene, dok Claude 3,5 sonet nudi 40% niže troškove za ulazne tokene.

Izvor: Prekršaj

Skrivena “neučinkovitost tokenizatora”

Unatoč nižim stopama ulaznih tokena antropskog modela, primijetili smo da su ukupni troškovi pokretanja eksperimenata (na određenom skupu fiksnih upita) s GPT-4O mnogo jeftiniji u usporedbi s Claude Sonnet-3,5.

Zašto?

Antropski tokenizer ima tendenciju da razgradi isti ulaz na više tokena u usporedbi s OpenAijevim tokenizatorom. To znači da, za identične upute, antropski modeli proizvode znatno više tokena od svojih Openai kolega. Kao rezultat toga, iako je trošak po cijenom za unos soneta Claude 3.5 može biti niži, povećana tokenizacija može nadoknaditi ove uštede, što dovodi do većih ukupnih troškova u praktičnim slučajevima uporabe.

Ovaj skriveni trošak proizlazi iz načina na koji tokenizer Anthropic kodira informacije, često koristeći više tokena za predstavljanje istog sadržaja. Inflacija broja tokena ima značajan utjecaj na troškove i upotrebu prozora konteksta.

Neučinkovitost tokenizacije koja ovisi o domeni

Različite vrste sadržaja domene različito su tokenizirane tokenizatorom Anthropica, što dovodi do različitih razina povećanog broja tokena u usporedbi s OpenAijevim modelima. AI istraživačka zajednica primijetila je slične razlike u tokenizaciji ovdje. Testirali smo naša otkrića na tri popularne domene, naime: engleski članci, kod (python) i matematiku.

DomenaUnos modelaGPT tokeniClaude tokeni% Token režijski
Engleski članci7789~ 16%
KOD (Python)6078~ 30%
Matematika114138~ 21%

% Token Resears of Claude 3.5 tokenizatora soneta (u odnosu na GPT-4O) Izvor: Lavanya Gupta

Kada uspoređujete sonet Claude 3.5 s GPT-4O, stupanj neučinkovitosti tokenizatora značajno se razlikuje u domenama sadržaja. Za engleske članke, Claudeov tokenizer proizvodi otprilike 16% više tokena od GPT-4O za isti ulazni tekst. Taj se režijski troškovi naglo povećavaju s strukturiranijim ili tehničkim sadržajem: Za matematičke jednadžbe, režijski troškovi iznose 21%, a za Python kod, Claude generira 30% više tokena.

Ova varijacija nastaje zato što neke vrste sadržaja, poput tehničkih dokumenata i koda, često sadrže uzorke i simbole koje antropiji fragmenti tokenizatora u manje komade, što dovodi do većeg broja tokena. Suprotno tome, više prirodnog jezičnog sadržaja ima tendenciju da pokazuje niži token.

Ostale praktične implikacije neučinkovitosti tokenizatora

Osim izravne implikacije na troškove, također postoji neizravni utjecaj na upotrebu prozora konteksta. Dok antropski modeli tvrde da je veći kontekstni prozor od 200K tokena, za razliku od OpenAijevih 128K tokena, zbog verbosity -a, efektivni korisni prostor tokena može biti manji za antropske modele. Dakle, potencijalno bi mogla postojati mala ili velika razlika u veličinama prozora prozora “Oglašenih” u odnosu na veličine prozora “učinkovite” konteksta.

Provedba tokenizatora

GPT modeli koriste Byte par kodiranja (bpe)koji se često spajaju parovi znakova koji se javljaju kako bi formirali tokene. Konkretno, najnoviji GPT modeli koriste tokenizer otvorenog koda O200K_Base. Stvarni tokeni koje koristi GPT-4O (u Tiktoken Tokenizer) može se pogledati ovdje.

JSON
 

    #reasoning
    "o1-xxx": "o200k_base",
    "o3-xxx": "o200k_base",

    # chat
    "chatgpt-4o-": "o200k_base",
    "gpt-4o-xxx": "o200k_base",  # e.g., gpt-4o-2024-05-13
    "gpt-4-xxx": "cl100k_base",  # e.g., gpt-4-0314, etc., plus gpt-4-32k
    "gpt-3.5-turbo-xxx": "cl100k_base",  # e.g, gpt-3.5-turbo-0301, -0401, etc.

Nažalost, ne može se puno reći o antropskim tokenizatorima jer njihov tokenizer nije tako izravno i lako dostupan kao GPT. Antropski Objavili API za brojanje tokena u prosincu 2024. Međutim, ubrzo je propala u verzijama kasnije 2025. godine.

Latenode Izvještava da “Anthropic koristi jedinstveni tokenizer sa samo 65 000 varijacija tokena, u usporedbi sa varijacijama tokena u 100.261 OpenAi za GPT-4.” Ovaj Colab bilježnica Sadrži Python kôd za analizu razlike u tokenizaciji između GPT i CLAUDE modela. Još alat To omogućava povezivanje s nekim uobičajenim, javno dostupnim tokenizerima potvrđuje naša otkrića.

Sposobnost proaktivnog procjene broja tokena (bez pozivanja na stvarne API modela) i proračunskih troškova ključna je za AI poduzeća.

Ključni poduhvat

  • Konkurentne cijene Anthropica dolaze sa skrivenim troškovima:
    Dok Anthropic’s Claude 3,5 sonet nudi 40% nižih troškova ulaza u odnosu na GPT-4O OpenAi, ova prividna prednost troškova može biti zabludu zbog razlika u tokokeniziranom tekstu.
  • Skrivena “neučinkovitost tokenizatora”:
    Antropski modeli su inherentno više opširan. Za tvrtke koje obrađuju velike količine teksta, razumijevanje ove odstupanja je presudno prilikom procjene pravih troškova raspoređivanja modela.
  • Neučinkovitost tokenizatora ovisnog o domeni:
    Pri odabiru između otvorenih i antropskih modela, Ocijenite prirodu svog ulaznog teksta. Za zadatke prirodnog jezika, razlika u troškovima može biti minimalna, ali tehničke ili strukturirane domene mogu dovesti do značajno većih troškova s ​​antropskim modelima.
  • Efektivni prozor konteksta:
    Zbog tokekenizatora Anthropic -a, njegov veći oglašeni prozor od 200K konteksta može ponuditi manje učinkovit upotrebljivi prostor od OpenAi’s 128K, što dovodi do a potencijal jaz između oglašenog i stvarnog prozora konteksta.

Anthropi nije odgovorio na zahtjeve VentureBeat -a za komentar prema vremenu tiska. Ažurirat ćemo priču ako odgovore.

Dnevni uvidi u slučajeve poslovne uporabe s VB dnevno

Ako želite impresionirati svog šefa, VB Daily vas je pokrivao. Dajemo vam unutarnju lopaticu o tome što tvrtke rade s generativnim AI, od regulatornih pomaka do praktičnih razmještaja, tako da možete dijeliti uvide za maksimalni ROI.

Pročitajte našu politiku privatnosti

Hvala na pretplati. Pogledajte više VB biltena ovdje.

Došlo je do pogreške.



Web izvor

Povezani sadržaji

  • SP Energy Networks nadograđuje Operativna telekomunikacijska mreža u Škotskoj
  • 5 jednadžbe fizike koje bi svi trebali znati5 jednadžbe fizike koje bi svi trebali znati
  • Kupite MacBook ili iPad za školu, nabavite besplatan par AirPods – evo kakoKupite MacBook ili iPad za školu, nabavite besplatan par AirPods – evo kako
  • Svaki model iPhonea koji podržava Appleove nove značajke iOS 26 AI (i ne, nije samo iPhone 17)Svaki model iPhonea koji podržava Appleove nove značajke iOS 26 AI (i ne, nije samo iPhone 17)
  • Strateški veleprodajni sporazum o vlaknima u zajednici s VodafoneThreeStrateški veleprodajni sporazum o vlaknima u zajednici s VodafoneThree
  • Posljednji od američkih showrunera razgovaraju gdje će ići treća sezonaPosljednji od američkih showrunera razgovaraju gdje će ići treća sezona

Previous Article

Što je izazvalo europski prekid struje?

Next Article

Signalgate: Saznanje za CISO -ove osiguravanje podataka o poduzeću

Posljednje objave

Assassin’s Creed Franchise olovo ostavlja Ubisoft nakon formiranja podružnice Tencent

Assassin’s Creed Franchise olovo ostavlja Ubisoft nakon formiranja podružnice Tencent

Sita otkriva prevlake za vlaknastim optičkim aerodromima

Jezični modeli koji se samo usavršavaju postaju stvarnost s MIT-ovom ažuriranom tehnikom pečata

Jezični modeli koji se samo usavršavaju postaju stvarnost s MIT-ovom ažuriranom tehnikom pečata

Sadržaj

  • 1 Cijene API-ja-Claude 3.5 sonet vs gpt-4o
  • 2 Skrivena “neučinkovitost tokenizatora”
  • 3 Neučinkovitost tokenizacije koja ovisi o domeni
    • 3.1 Ostale praktične implikacije neučinkovitosti tokenizatora
  • 4 Provedba tokenizatora
  • 5 Ključni poduhvat

Novosti

  • Assassin’s Creed Franchise olovo ostavlja Ubisoft nakon formiranja podružnice Tencent 14. listopada 2025
  • Sita otkriva prevlake za vlaknastim optičkim aerodromima 14. listopada 2025
  • Jezični modeli koji se samo usavršavaju postaju stvarnost s MIT-ovom ažuriranom tehnikom pečata 14. listopada 2025
  • Kako učiniti STEM smiješnim – i idi virusno radeći 14. listopada 2025
  • 10 Windows aplikacija otvorenog koda ne mogu živjeti – i svi su besplatni 14. listopada 2025
  • Isprobao sam pametne naočale s XMEMS zvučnicima i aktivnim hlađenjem – i puni su obećanja 13. listopada 2025
  • Moramo se približiti pokretanju Galaxy XR 13. listopada 2025
  • Crni mith Wukong dobiva ažuriranje koje je tako veliko na PS5, možda ćete trebati izbrisati igru ​​i preusmjeriti je 13. listopada 2025
  • Platforma za e-trgovinu eBay nudi besplatan chatgpt trening i alati 13. listopada 2025
  • We keep talking about AI agents, but do we ever know what they are? 13. listopada 2025

O nama

Oblak Znanja je blog edukativnog karaktera i namijenjen je svima koji žele unaprijediti svoje znanje iz područja računala i interneta.

Naš cilj je edukacija i pisanje zanimljivih objava kojima ćemo zajedno učiti i informirati se o svijetu informatike.

Na ovom blogu zabranjeno je svako kopiranje sadržaja bez dozvole autora.

Oblak Znanja

Oznake

besplatni powerpoint predlošci društvene mreže excel facebook firefox gmail google+ Google Chrome halloween halloween walpapers internet kartice linkedin profil linux microsoft Mozilla Firefox ms powerpoint oblak znanja office 2007 office savjeti online kupovina pick powerpoint powerpoint predložak powerpoint savjeti rastući niz savjet slike za radnu površinu spremanje datoteka strani jezik tipkovnicke kratice twitter twitter alati uređivanje slika wallpaper clock web preglednik windows windows 7 windows aplikacije windows vista word word 2007 word savjeti youtube savjeti youtube tipkovničke kratice