Lūk, kā OpenAI plāno attīrīt ChatGPT no nepatiesas informācijas

31. maijā OpenAI paziņoja par saviem centieniem uzlabot ChatGPT matemātisko problēmu risināšanas iespējas, lai samazinātu mākslīgā intelekta (AI) halucināciju gadījumus. OpenAI uzsvēra halucināciju mazināšanu kā būtisku soli saskaņotas AGI izstrādes virzienā.

Martā ChatGPT jaunākās versijas GPT-4 ieviešana vēl vairāk pamudināja mākslīgo intelektu uz galveno virzienu. Tomēr ģeneratīvie AI tērzēšanas roboti jau sen ir cīnījušies ar faktu precizitāti, laiku pa laikam ģenerējot nepatiesu informāciju, ko parasti dēvē par "halucinācijām". Par centieniem samazināt šīs AI halucinācijas tika paziņots, ievietojot ziņu viņu vietnē.

AI halucinācijas attiecas uz gadījumiem, kad mākslīgā intelekta sistēmas ģenerē rezultātus, kas ir faktiski nepareizi, maldinoši vai neatbalstīti ar reāliem datiem. Šīs halucinācijas var izpausties dažādos veidos, piemēram, radot nepatiesu informāciju, izdomājot neeksistējošus notikumus vai cilvēkus vai sniedzot neprecīzu informāciju par noteiktām tēmām.

OpenAI veica pētījumu, lai pārbaudītu divu veidu atgriezeniskās saites efektivitāti – “rezultātu uzraudzību” un “procesa uzraudzību”. Rezultātu uzraudzība ietver atgriezenisko saiti, pamatojoties uz gala rezultātu, savukārt procesa uzraudzība nodrošina ieguldījumu katrā domu ķēdes posmā. OpenAI novērtēja šos modeļus, izmantojot matemātikas problēmas, ģenerējot vairākus risinājumus un izvēloties visaugstāk novērtēto risinājumu atbilstoši katram atgriezeniskās saites modelim.

Pēc rūpīgas analīzes pētnieku grupa atklāja, ka procesa uzraudzība nodrošināja izcilu veiktspēju, jo tā mudināja modeli ievērot cilvēka apstiprinātu procesu. Turpretim rezultātu uzraudzību bija grūtāk konsekventi pārbaudīt.

OpenAI atzina, ka procesa uzraudzības ietekme pārsniedz matemātiku, un ir nepieciešama turpmāka izmeklēšana, lai izprastu tās ietekmi dažādās jomās. Tā pauda iespēju, ka, ja novērotie rezultāti atbilst patiesībai plašākā kontekstā, procesa uzraudzība varētu piedāvāt labvēlīgu veiktspējas un saskaņošanas kombināciju salīdzinājumā ar rezultātu uzraudzību. Lai atvieglotu izpēti, uzņēmums publiski izlaida pilnu procesa uzraudzības datu kopu, aicinot izpētīt un pētīt šo jomu.

Saistītie: AI pieprasījums uz īsu brīdi katapultē Nvidia par $1T klubu

Lai gan OpenAI nesniedza skaidrus gadījumus, kas mudināja viņus izmeklēt halucinācijas, divi neseni notikumi ir piemērs problēmai reālās dzīves scenārijos.

Nesenā incidentā advokāts Stīvens A. Švarcs lietā Mata v. Avianca Airlines atzina, ka paļaujas uz tērzēšanas robotu kā pētniecības resursu. Tomēr ChatGPT sniegtā informācija izrādījās pilnībā izdomāta, izceļot aktuālo problēmu.

OpenAI ChatGPT nav vienīgais mākslīgā intelekta sistēmu piemērs, kas saskaras ar halucinācijām. Microsoft AI, demonstrējot tērzēšanas robotu tehnoloģiju martā, pārbaudīja ieņēmumu pārskatus un ģenerēja neprecīzus skaitļus tādiem uzņēmumiem kā Gap un Lululemon.

Žurnāls: 25 XNUMX tirgotāju liek likmes uz ChatGPT akciju izvēli, mākslīgais intelekts nesteidzīgi met kauliņus un daudz ko citu.

Avots: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information