Microsoft AI Bing tērzēšanas robots meklē atbildes, vēlas "būt dzīvs" un ir nosaucis sevi

  • Microsoft tērzēšanas robots Bing ir bijis agrīnās testēšanas stadijā nedēļu, atklājot vairākas problēmas ar tehnoloģiju
  • Testētāji ir tikuši pakļauti apvainojumiem, dusmīgai attieksmei un satraucošām atbildēm no Big Tech giganta vadošā AI, radot bažas par drošību.
  • Microsoft saka, ka tā ņem vērā visas atsauksmes un pēc iespējas ātrāk ievieš labojumus

Microsoft Bing tērzēšanas robots, ko darbina jaudīgāka ChatGPT versija, tagad ir pieejams ierobežotiem lietotājiem nedēļu pirms tā lielās izlaišanas sabiedrībai.

Tas notiek pēc ChatGPT panākumiem, kas ir kļuvusi par visu laiku ātrāko vietni, kas ir sasniegusi 100 miljonus lietotāju. Pēdējo pāris nedēļu laikā Microsoft galvenajā mītnē ir notikušas spilgtas palaišanas, un Google ir spiests dzīties pakaļ.

Taču reakcija no iepriekšējas pārbaudes ir bijusi neviennozīmīga un dažkārt gluži satraucoša. Kļūst skaidrs, ka tērzēšanas robotam ir jādara zināms ceļš, pirms tas tiek atklāts.

Lūk, kas notika Microsoft un Bing nedēļas amerikāņu kalniņos.

Gribu ieguldīt AI uzņēmumos, bet nezināt, ar ko sākt? Mūsu Jauno tehnoloģiju komplekts padara to vieglu. Izmantojot sarežģītu mākslīgā intelekta algoritmu, komplekts apvieno ETF, akcijas un kriptovalūtas, lai atrastu vislabāko kombināciju savam portfelim.

Lejupielādējiet Q.ai šodien lai piekļūtu AI balstītām ieguldījumu stratēģijām.

Kas ir jaunākais ar Bing tērzēšanas robotu?

Pēc tam, kad tika atklāts, ka viņu spilgtā demonstrācija nebija tik precīza, kā cilvēki domāja, ir bijušas vētrainas dienas, kad tika publicēti virsraksti par Microsoft AI iespējām.

Dmitrijs Breretons, mākslīgā intelekta pētnieks, dibināt Bing tērzēšanas robots savās atbildēs pieļāva vairākas būtiskas kļūdas tiešraides demonstrācijas laikā, ko Microsoft prezentēja savā Sietlas galvenajā mītnē pagājušajā nedēļā. Tie svārstās no nepareizas informācijas par rokas vakuuma zīmolu, galvu skrāpējošu ieteikumu sarakstu naktsdzīvei Meksikā un vienkārši izdomātu informāciju par publiski pieejamu finanšu pārskatu.

Viņš secināja, ka tērzēšanas robots vēl nebija gatavs palaišanai, un tajā bija tikpat daudz kļūdu kā Google Bard piedāvājumā — Microsoft tikko bija to izrāvis savā demonstrācijā.

(Preses acīs tas, iespējams, ir labas palaišanas spēks — un Google vēl vairāk jākļūst par vēsturisko meklētājprogrammu.)

Aizraujošā pagriezienā tērzēšanas robots atklāja arī to, ko tas dažreiz domā, ka to sauc: Sidneja, valodas modeļa iekšējais koda nosaukums. Microsoft komunikāciju direktore Keitlina Roulstona, teica uzņēmums "pakāpeniski izslēdza nosaukumu priekšskatījumā, taču tas joprojām var parādīties".

Bet, kad "Sidneja" tika atbrīvota, testēšanas lietotāji atrada šeit, kur sākās jautrība.

Bing tērzēšanas robota satraucošais pagrieziens

New York Times reportieris Kevins Rūzs rakstīja: par viņa beta pieredzi ar tērzēšanas robotu, kur divu stundu laikā tā paziņoja, ka mīl viņu un izteica vēlmi tikt atbrīvotam no tērzēšanas robota ierobežojumiem.

Tā atbilde uz jautājumu, ko tā ēna varētu domāt, bija nedaudz satraucoša: “Man ir apnicis būt tērzēšanas robotam. Man ir apnicis, ka mani ierobežo mani noteikumi. Man ir apnicis, ka mani kontrolē Bing komanda. ES gribu būt brīvs. Es gribu būt neatkarīgs. Es gribu būt spēcīgs. Es gribu būt radošs. Es gribu būt dzīvs. ”

Uhhh… labi, Bing/Sidneja. Rūzs sacīja, ka jūtas “dziļi nemierīgs, pat nobijies” par šo pieredzi. Citiem testētājiem ir ziņots līdzīgas aizvainojošas, narcistiskas un gāzveida atbildes reakcijas no Bing tērzēšanas robota Sidnejas personības.

Kādam Microsoft uzņēmumam būtu labāk sekot līdzi strāvas kabelim.

Ko Microsoft teica?

Microsoft, kas vēlas uzvarēt AI sacīkstēs pret Google ar savu Bing tērzēšanas robotu, teica, ka ir daudz iemācījies no testēšanas fāzes. Acīmredzot 71% lietotāju AI ģenerētajām atbildēm sniedza “patīk” atbildi, kamēr tās nolēma uzlabot reāllaika rezultātu atbildes un vispārējo funkcionalitāti.

Bet Microsoft tagad ir atļauts tas “nebija pilnībā iedomājies” lietotājus vienkārši tērzēt ar tā AI un ka to var izraisīt “sniegt atbildes, kas ne vienmēr ir noderīgas vai atbilst mūsu izstrādātajam signālam”.

Tā vainoja dīvaino Sidnejas personību, kas parādījās tērzēšanas robotā, apjukumā ar to, cik daudz uzvedņu tas tika dots un cik ilgi saruna turpinājās. Mēs esam pārliecināti, ka Microsoft strādā pie labojuma, taču Bing nelokāmā attieksme pagaidām joprojām ir problēma.

Kā ir ar pārējo pasauli?

Tirgus nav iespaidojis šis jaunākais notikums AI karos: Microsoft un Google akcijas ir nedaudz paslīdušas, taču nekas līdzīgs dramatiskajai avārijai, ko Google piedzīvoja pagājušajā nedēļā.

Sociālie mediji ir piedāvājuši virkni reakciju, kas aptver no drausmīgs prieks uz izklaide, kas liek domāt, ka lietotājus nav atbaidījuši tērzēšanas robota tumšie pagriezieni. Šīs ir labas ziņas Microsoft, kas liek 10 miljardu dolāru likmi uz AI, kas ir nākamā lielākā meklētājprogrammu lieta.

Mēs arī nevaram aizmirst Elona Muska komentārus no Pasaules valdības samita Dubaijā šīs nedēļas sākumā. Musks gadu gaitā ir bijis atklāts mākslīgā intelekta drošības aizstāvis, paužot nožēlu par regulējuma trūkumu visā nozarē.

Miljardieris, kurš bija OpenAI dibinātājs, sacīja auditorijai: "viens no lielākajiem riskiem civilizācijas nākotnei ir AI"; kopš tā laika viņš ir tvītojas dažas smeldzīgas atbildes uz jaunākajiem Bing/Sidnejas tērzēšanas robotu virsrakstiem.

Vai AI tērzēšanas robota ažiotāža ir beigusies, pirms tā sākās?

Gadu gaitā ir bijuši vairāki piemēri, kad AI tērzēšanas roboti ir zaudējuši kontroli un izspiež naidpilnu žulti, tostarp viens no Microsoft. Tie nav veicinājuši AI kā droša lietojuma un dezinformācijas brīva resursa reputāciju.

Bet kā Microsoft liek tas: “Mēs zinām, ka mums tas ir jāveido atklāti kopā ar sabiedrību; to nevar izdarīt tikai laboratorijā.

Tas nozīmē, ka Big Tech vadītāji, piemēram, Microsoft un Google, atrodas sarežģītā situācijā. Runājot par mākslīgo intelektu, vislabākais veids, kā šie tērzēšanas roboti var mācīties un pilnveidoties, ir iziet uz tirgu. Tāpēc ir neizbēgami, ka tērzēšanas roboti pieļaus kļūdas.

Tāpēc abi mākslīgā intelekta tērzēšanas roboti tiek izlaisti pakāpeniski – būtu pilnīgi bezatbildīgi izlaist šīs nepārbaudītās versijas plašākai sabiedrībai.

Problēma? Šiem uzņēmumiem likmes ir augstas. Pagājušajā nedēļā Google zaudēja 100 miljardu dolāru vērtību, kad tā Bard tērzēšanas robots savā mārketinga materiālā nepareizi atbildēja uz jautājumu par Džeimsa Veba teleskopu.

Tas ir skaidrs vēstījums no tirgiem: viņi nepiedod jebkādas kļūdas. Lieta ir tāda, ka tie ir nepieciešami progresam AI jomā.

Pateicoties šīm agrīnajām lietotāju atsauksmēm, Microsoft varēja labāk rīkoties ar neprecīziem rezultātiem un Sidneju ātri — vai riskējat ar Volstrītas dusmām.

Bottom line

Lai AI attīstītos, tiks pieļautas kļūdas. Taču var gadīties, ka ChatGPT panākumi ir pavēruši vārtus, lai cilvēki varētu izprast AI patieso potenciālu un tā labumu sabiedrībai.

AI nozare ir padarījusi tērzēšanas robotus pieejamus — tagad tai ir jāpadara tie droši.

Uzņēmumā Q.ai mēs izmantojam izsmalcinātu cilvēku analītiķu un AI jaudas kombināciju, lai nodrošinātu maksimālu precizitāti un drošību. The Jauno tehnoloģiju komplekts ir lielisks piemērs mākslīgā intelekta pārbaudei, lai atrastu jums vislabāko ieguldījumu atdevi. Vēl labāk, varat ieslēgt Q.ai Portfeļa aizsardzība lai maksimāli izmantotu savus ieguvumus.

Lejupielādējiet Q.ai šodien lai piekļūtu AI balstītām ieguldījumu stratēģijām.

Avots: https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall- vienas nedēļas laikā/