Hugging Face API och AutoTrain: pris- och funktionsjämförelse med NLP Cloud

Hugging Face är välkänt för sitt fantastiska arbete med Python Transformers-biblioteket, och för sitt stora arkiv med modeller för maskininlärning. Men de tillhandahåller också ett API för inferens och en finjusteringsplattform som kallas AutoTrain.

NLP Clouds API och NLP Clouds finjusteringsplattform är direkta konkurrenter till Hugging Face API och AutoTrain. Låt oss jämföra priserna och funktionerna hos dessa 2 aktörer här!

Prissättning: Hugging Face VS NLP Cloud

För det första är det värt att notera att NLP Cloud API kan testas gratis när det används på en CPU och en GPU (tack vare den kostnadsfria planen och pay-as-you-go planen som erbjuder 100 000 gratis tokens), medan Hugging Face API endast kan testas gratis på en CPU (tack vare deras kostnadsfria plan). Det är en viktig skillnad eftersom de mest intressanta Transformer-baserade AI-modellerna körs mycket snabbare på en GPU. Vissa går till och med helt enkelt inte att köra på en GPU.

Prissättning av Hugging Face
Prissättning av Hugging Face

När det gäller planer erbjuder Hugging Face endast pay-as-you-go prissättning (prissättning baserad på din förbrukning) medan NLP Cloud både erbjuder förbetalda planer och pay-as-you-go planer. Låt oss säga att du vill utföra textklassificering på textstycken som i genomsnitt innehåller cirka 5 000 ord, med en hastighet av 15 förfrågningar per minut, på en GPU. Hugging Face's prissättning baseras på antalet tecken, medan NLP Cloud's prissättning baseras på antalet tokens. 5k ord motsvarar mer eller mindre 15k tecken och 3 750 tokens. På NLP Cloud kostar det dig 99 dollar/månad genom att prenumerera på Starter GPU Plan, medan det på Hugging Face kostar dig 15k x 15 x 60 x 24 x 31 x $50 / 1M = 500k dollar/månad (!!!).

Som du kan se verkar det som om Hugging Face pay-as-you-go-priserna absolut inte lämpar sig för användning i produktionen. Bokstavligen ingen kommer att betala ett sådant pris för textklassificering på en GPU ...

När det gäller finjustering är det inte ens möjligt att jämföra eftersom Hugging Face's AutoTrain-priser inte är offentliga. Vi registrerade oss och provade deras AutoTrain-lösning, men vi kunde fortfarande inte hitta någon tydlig prissättning...

Tillgängliga modeller

Det fina med Hugging Face är att de har massor av AI-modeller på sin plattform! Det betyder dock inte att du faktiskt kan använda dessa modeller. Du kan naturligtvis ladda ner dem, men det är inte samma sak som att använda dem.

Endast en mycket liten del av Hugging Face-modellerna är faktiskt tillgängliga för inferens genom deras API. Om du försöker använda en modell som inte redan är inläst måste du antingen vänta i flera minuter eller så får du helt enkelt ett felmeddelande. En lösning är att fästa de modeller du vill använda så att de alltid är tillgängliga, men i så fall måste du betala ytterligare 5 dollar/månad per modell på en GPU.

På NLP Cloud valde vi en annan strategi: cirka 50 olika AI-modeller är tillgängliga hela tiden. Vi väljer en modell när vi anser att det är den bästa modellen för ett specifikt användningsfall. Vi väljer till exempel Bart Large MNLI för klassificering, Distilbert för sentimentanalys, GPT-J för avsiktsdetektering osv.

Ännu viktigare är att de mest avancerade AI-modellerna, som GPT-J, inte finns tillgängliga i Hugging Face API och inte kan finjusteras på deras AutoTrain-plattform, medan du enkelt kan använda och finjustera dessa stora språkmodeller på NLP Cloud.

GPT-J API-exempel på NLP Cloud
GPT-J API-exempel på NLP Cloud
Finjustering av GPT-J på NLP Cloud
Finjustering av GPT-J på NLP Cloud

Stöd

Hugging Face erbjuder endast support om du väljer deras Lab- eller Enterprise-plan.

NLP Cloud är helt annorlunda: vi erbjuder bästa möjliga support till alla kunder, oavsett om det är en gratiskund, en liten betalkund eller en företagskund. Vi tror att en bra support är avgörande när det gäller AI och naturlig språkbehandling eftersom kunderna kan ha massor av intressanta tekniska eller affärsmässiga frågor.

Hastighet och tillförlitlighet

I våra riktmärken noterade vi en lägre latenstid på NLP Cloud API för alla modeller vi testade, oavsett om det var på en CPU eller GPU.

Hastigheten är avgörande för ett sådant API för maskininlärning, och det faktum att NLP Cloud svarar snabbare kan göra stor skillnad, beroende på dina verksamhetskrav.

När det gäller finjustering kunde vi inte göra en ordentlig jämförelse för tillfället eftersom de flesta finjusteringar som vi startade på Hugging Face AutoTrain-plattformen misslyckades utan uttryckligt felmeddelande.

Slutsats

Användare jämför ofta NLP Cloud med Hugging Face API och AutoTrain-plattformen.

Vi anser att NLP Cloud API är mycket mer intressant både ur prissynpunkt och ur prestandasynpunkt.

Vi är också mycket stolta över att kunna erbjuda högkvalitativ support till alla våra kunder utan åtskillnad.

Vill du prova? Testa NLP Cloud här!

Julien Salinas
CTO på NLP Cloud