Dyma sut mae OpenAI yn bwriadu glanhau ChatGPT o wybodaeth ffug

Cyhoeddodd OpenAI ar Fai 31ain, ei ymdrechion i wella galluoedd datrys problemau mathemategol ChatGPT, gyda'r nod o leihau achosion o rithwelediadau deallusrwydd artiffisial (AI). Pwysleisiodd OpenAI fod rhithweledigaethau lliniarol yn gam hanfodol tuag at ddatblygu AGI wedi'i alinio.

Ym mis Mawrth, fe wnaeth cyflwyno'r fersiwn ddiweddaraf o ChatGPT, GPT-4, yrru deallusrwydd artiffisial ymhellach i'r brif ffrwd. Fodd bynnag, mae chatbots AI cynhyrchiol wedi mynd i’r afael â chywirdeb ffeithiol ers amser maith, gan gynhyrchu gwybodaeth ffug o bryd i’w gilydd, y cyfeirir ato’n gyffredin fel “rhithweledigaethau.” Cyhoeddwyd yr ymdrechion i leihau'r rhithweledigaethau AI hyn trwy bost ar eu gwefan.

Mae rhithweledigaethau AI yn cyfeirio at achosion lle mae systemau deallusrwydd artiffisial yn cynhyrchu allbynnau sy'n ffeithiol anghywir, yn gamarweiniol neu heb eu cefnogi gan ddata'r byd go iawn. Gall y rhithweledigaethau hyn ddod i'r amlwg mewn amrywiol ffurfiau, megis cynhyrchu gwybodaeth ffug, creu digwyddiadau neu bobl nad ydynt yn bodoli neu ddarparu manylion anghywir am rai pynciau.

Cynhaliodd OpenAI ymchwil i archwilio effeithiolrwydd dau fath o adborth – “goruchwylio canlyniad” a “goruchwylio prosesau.” Mae goruchwylio canlyniadau yn cynnwys adborth yn seiliedig ar y canlyniad terfynol, tra bod goruchwyliaeth proses yn darparu mewnbwn ar gyfer pob cam mewn cadwyn o feddwl. Gwerthusodd OpenAI y modelau hyn gan ddefnyddio problemau mathemateg, gan gynhyrchu atebion lluosog a dewis yr ateb o'r radd flaenaf yn ôl pob model adborth.

Ar ôl dadansoddi'n drylwyr, canfu'r tîm ymchwil fod goruchwylio prosesau yn rhoi perfformiad gwell gan ei fod yn annog y model i gadw at broses a gymeradwywyd gan ddyn. Mewn cyferbyniad, bu'n fwy heriol craffu ar y canlyniadau'n gyson.

Cydnabu OpenAI fod goblygiadau goruchwylio prosesau yn ymestyn y tu hwnt i fathemateg, ac mae angen ymchwilio ymhellach i ddeall ei effeithiau mewn gwahanol feysydd. Mynegodd y posibilrwydd, os yw’r canlyniadau a arsylwyd yn wir mewn cyd-destunau ehangach, y gallai goruchwylio prosesau gynnig cyfuniad ffafriol o berfformiad ac aliniad o gymharu â goruchwylio canlyniadau. Er mwyn hwyluso ymchwil, rhyddhaodd y cwmni y set ddata gyflawn o oruchwylio prosesau yn gyhoeddus, gan wahodd archwilio ac astudio yn y maes hwn.

Cysylltiedig: Mae galw AI yn byrlymu Nvidia i mewn i glwb $ 1T

Er na ddarparodd OpenAI enghreifftiau penodol a ysgogodd eu hymchwiliad i rithweledigaethau, roedd dau ddigwyddiad diweddar yn enghreifftio’r broblem mewn senarios bywyd go iawn.

Mewn digwyddiad diweddar, cydnabu'r cyfreithiwr Steven A. Schwartz yn achos Mata v. Avianca Airlines ei fod yn dibynnu ar y chatbot fel adnodd ymchwil. Fodd bynnag, roedd y wybodaeth a ddarparwyd gan ChatGPT yn gwbl ffug, gan amlygu'r mater dan sylw.

Nid ChatGPT OpenAI yw'r unig enghraifft o systemau deallusrwydd artiffisial yn dod ar draws rhithweledigaethau. Archwiliodd AI Microsoft, yn ystod arddangosiad o'i dechnoleg chatbot ym mis Mawrth, adroddiadau enillion a chynhyrchodd ffigurau anghywir ar gyfer cwmnïau fel Gap a Lululemon.

Cylchgrawn: Masnachwyr 25K yn betio ar ddewisiadau stoc ChatGPT, AI yn sugno ar dafliadau dis, a mwy

Ffynhonnell: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information