Înapoi

O privire detaliată asupra OpenAI DevDay: Ce a fost lansat în afară de GPT-4 Turbo?

By Sean Chen, 10 Noiembrie 2023

官網文章_OpenAI_devDay_2023.png



Pe 2023/11/06, la evenimentul OpenAI DevDay, CEO-ul OpenAI, Sam Altman, a depășit din nou așteptările, oferind dezvoltatorilor AI noi posibilități. Prin acest articol, să explorăm împreună ce atracție are GPT-4 Turbo pentru dezvoltatorii de software.




OpenAI a organizat evenimentul OpenAI DevDay pe 2023/11/06, iar în timp ce alte mari companii tehnologice încă încearcă să ajungă din urmă performanțele GPT-4, CEO-ul OpenAI, Sam Altman, a depășit din nou așteptările, demonstrând poziția de lider a OpenAI în domeniul inteligenței artificiale.

GPT-4 Turbo: Mai rapid, mai mult text și mai ieftin

Contextul se referă la volumul total de text „introdus în modelul de limbaj mare și dialogul rezultat”. În trecut, volumul maxim de text era de 32.000 de tokenuri (disponibil doar pentru unii dezvoltatori), iar GPT-4 Turbo permite până la 128.000 de tokenuri, echivalentul unei cărți de 300 de pagini introduse simultan în GPT-4 Turbo pentru generare. În ceea ce privește viteza, cel mai criticat aspect al GPT-4 era viteza lentă, consumând mult timp în procesul de generare. Astfel, companiile foloseau mai des GPT-3.5 pentru a rezolva majoritatea problemelor practice. GPT-4 Turbo rezolvă această problemă, aducând viteza de generare aproape de GPT-3.5, îmbogățind scenariile viitoare de integrare cu GPT-4 Turbo. În ceea ce privește costurile, comparativ cu versiunea anterioară GPT-4, costul pentru prompturi este de trei ori mai ieftin, iar costul pentru textul generat este de două ori mai ieftin.


Funcționalitate de apelare a funcțiilor mai prietenoasă pentru dezvoltatori


Ce este apelarea funcțiilor?

OpenAI a lansat mai devreme anul acesta funcționalitatea de „apelare a funcțiilor”, care permite dezvoltatorilor să apeleze funcții de cod personalizate atunci când folosesc GPT. Cu alte cuvinte, permite AI-ului inteligent să se conecteze la diverse API-uri, extinzând semnificativ domeniul de utilizare al OpenAI. Performanța puternică a modelului constă în faptul că, odată ce dezvoltatorii oferă mai multe interfețe de comandă ale programului, GPT poate decide singur ce comandă să apeleze și poate folosi parametrii potriviți pentru execuție.

Exemplu: Dezvoltatorul unei lămpi inteligente oferă două comenzi: „setare culoare” și „setare interval de detecție”. Parametrii comenzii de setare a culorii sunt trei: lumină albă, lumină naturală și lumină de noapte. Când se introduce în GPT promptul: „Te rog să setezi lampa potrivită pentru noapte”, GPT va decide automat să folosească comanda „setare culoare” și va folosi automat parametrul „lumină de noapte”, fără intervenție umană. În trecut, era nevoie de scrierea logicii personalizate folosind tehnologia NLP pentru a atinge această funcționalitate, dar acum se poate realiza doar prin apelarea programului GPT.

Ce s-a modificat acum?

Actualizarea de acum permite GPT să determine mai precis ce comandă și parametru să folosească, îmbunătățind în același timp capacitatea GPT de a apela o singură comandă la un moment dat. În trecut, când contextul era mai complex, dezvoltatorii trebuiau să scrie programe suplimentare pentru a permite funcției să efectueze mai multe apeluri; această actualizare permite GPT să execute mai multe comenzi simultan și să transmită rezultatele fiecărei comenzi între ele. De exemplu: folosind promptul „Mă trezesc de obicei noaptea pentru a bea apă, te rog să setezi modul potrivit al lămpii”, GPT poate decide să apeleze ambele comenzi „setare culoare” și „setare interval de detecție”, și să decidă parametrul „interval de detecție” ca „ora 01:00 până la 06:30”, folosind în același timp „setare culoare” cu parametrul „lumină de noapte”.

În plus, răspunsurile modelului de limbaj erau anterior în format „text nespecific”, iar dacă se dorea un răspuns într-un format specific, era necesar să se solicite în prompt „te rog să răspunzi în format xml”; totuși, dezvoltatorii întâmpinau adesea problema că formatul răspunsului nu era întotdeauna xml, adesea amestecând text simplu, ceea ce ducea la erori în conversia formatului. Acum, GPT-4 Turbo permite dezvoltatorilor să seteze parametrul response_format, care poate fi setat ca xml sau json, formate comune de răspuns API, crescând stabilitatea programului.

În cele din urmă, OpenAI permite utilizatorilor să seteze parametrul Seed, care determină aleatorietatea conținutului returnat de GPT. Prin setarea acestui parametru, dezvoltatorii pot asigura consistența răspunsurilor modelului de limbaj, oferindu-le mai multă încredere atunci când scriu cazuri de testare (evitând ca modelul de limbaj să genereze brusc răspunsuri diferite), îmbunătățind testabilitatea și calitatea programului.


Pe lângă cele două puncte menționate mai sus, extinderea scenariilor de aplicare face ca lansarea API-ului de asistență să fie punctul central al DevDay.

API-ul de asistență (Assistants API)

În trecut, pentru a dezvolta aplicații AI generative folosind modele de limbaj mari, era necesar să se folosească pachete terțe precum LangChain, oferind modelelor de limbaj mari capacități avansate, cum ar fi: utilizarea combinată a mai multor modele de limbaj, capacitatea de a personaliza datele, memoria și agenți (Agent, care permit AI-ului să execute sarcini și decizii continue), pentru a realiza aplicații AI mai complexe.

API-ul de asistență lansat la DevDay integrează multiplele capacități menționate mai sus în API-ul oficial, eliminând problemele întâmpinate de dezvoltatori în integrarea pachetelor terțe. Aceasta este prima dată când oficialii depășesc simpla optimizare a performanței modelului de limbaj mare și încep să exploreze aplicațiile „agenților”. Documentația oficială afirmă că „un asistent este un AI orientat spre obiective, care permite utilizarea de comenzi specifice, utilizarea de date externe sau utilizarea de modele de limbaj și instrumente diferite pentru a executa sarcini”.


Noul API de asistență include și câteva instrumente, pe lângă „apelarea funcțiilor” menționată anterior, oferind și „compilator de cod” și „recuperare de date”.


Compilator de cod (Code Interpreter)

„Compilatorul de cod” al GPT-4 permite ca codul scris să fie executat într-un mediu sandbox (în prezent suportă doar Python). În trecut, inginerii care obțineau cod scris cu ajutorul GPT-4 trebuiau să-l copieze și să-l testeze în propriul mediu de dezvoltare, dar mediul sandbox oferit de OpenAI este suficient pentru ca GPT-4 să verifice singur corectitudinea codului și să modifice treptat codul pe baza rezultatelor obținute, până când se atinge obiectivul.

Cu toate acestea, rolul compilatorului de cod depășește „verificarea corectitudinii codului scris de GPT-4”, având o semnificație mai mare: „permite modelului de limbaj mare să aibă propriul său computer”, care poate executa majoritatea sarcinilor. Acum, modelele de limbaj mari pot interacționa prin programare cu comenzi, deși executarea într-un mediu sandbox limitat permite compilatorului de cod să folosească doar anumite pachete terțe, dar este suficient pentru a executa „majoritatea sarcinilor pe care limbajul de programare Python le gestionează bine”, cum ar fi: procesarea datelor și apelurile API, și poate citi fișiere de cod mai mari furnizate de utilizatori. Din punct de vedere al securității, mediul sandbox previne abuzul de puterea mare a modelului de limbaj, oferind astfel o anumită garanție de securitate.



Recuperare de date (Retrieval)

„Recuperarea de date” permite utilizatorilor să încarce propriile date (de exemplu: date din domenii industriale specifice, informații despre produse sau documente interne) și să permită modelului de limbaj mare să răspundă pe baza acestor date, aplicându-se în propriul domeniu sau industrie. Această funcționalitate a fost un punct de interes de la lansarea GPT-3. Recuperarea de date lansată la DevDay este prima soluție nativă oferită de oficiali pentru această funcționalitate, de exemplu: pentru a permite companiilor să creeze roboți de cunoștințe interne, cum ar fi manageri de proiect AI, analiști de sistem AI; în domenii precum sănătatea, finanțele, roboții de asistență pentru clienți, care în trecut necesitau tehnologii complexe de procesare a limbajului pentru a fi implementați, acum, cu puternicul model de limbaj GPT-4 și funcționalitatea de recuperare de date oferită de OpenAI, dezvoltatorii se pot concentra pe logica de afaceri, acuratețea datelor și ajustarea detaliilor. În plus, utilizarea pachetelor terțe necesită baze de date vectoriale, procesarea segmentării datelor sau algoritmi de căutare specifici, care nu mai necesită efort suplimentar datorită suportului oficial OpenAI, eliminând astfel costurile de dezvoltare și extindere. OpenAI subliniază, de asemenea, că conversațiile și fișierele utilizate de API-ul de asistență nu vor fi folosite pentru a antrena următoarea generație de modele OpenAI.



Concluzie

În ansamblu, OpenAI nu doar că optimizează constant eficiența modelului, ci extinde continuu aplicațiile modelului de limbaj mare. Sam Altman a spus că GPT-5 nu va apărea în curând, iar cu precizia actuală a GPT-4, cheltuirea unor costuri mari pentru a antrena un model de limbaj cu parametri mai mari nu pare necesară. În schimb, îmbunătățirea performanței, ușurinței de utilizare și scalabilității GPT-4 este acum punctul central al OpenAI; iar pentru dezvoltatori, companii și consumatorii finali, integrarea mai multor AI puternice care pot fi aplicate în majoritatea scenariilor a devenit punctul central al transformării digitale de generația următoare. GPT creat de OpenAI este ca un creier în lumea tehnologiei viitorului, și credem că următoarele inovații și progrese vor face ca inteligența artificială să fie mai pricepută în utilizarea instrumentelor, să „vadă”, să „audă” și să „vorbească” și să „deseneze” fluent.

MAI MULT DIN BLOGUL NOSTRU

Contactează-ne

CONTACTEAZĂ-NE

Hai să vorbim despre ideile tale!

Pornește-ți afacerea cu partenerul tău digital inovator. Vom răspunde în maxim o zi lucrătoare. (GMT+8)