Mae angen i lunwyr polisi ddelio â heriau AI go iawn

Mae canolbwyntio ar y risg niwlog o ddiflannu o AI yn wrthdyniad peryglus.

Yr wythnos diwethaf, rhyddhaodd grŵp a ariennir gan Silicon Valley o’r enw’r Centre for AI Safety ddatganiad un frawddeg: “Dylai lliniaru’r risg o ddiflannu o AI fod yn flaenoriaeth fyd-eang ochr yn ochr â risgiau eraill ar raddfa gymdeithasol fel pandemigau a rhyfel niwclear.” Fe'i llofnodwyd gan lawer o arweinwyr diwydiant ac ymchwilwyr AI parchus a chafodd sylw helaeth yn y wasg.

Roedd yr ymateb ehangach i'r datganiad yn llym. Dywedodd yr Athro Sandra Wachter o Brifysgol Rhydychen mai dim ond stynt cyhoeddusrwydd ydoedd. Mynegodd rhai o'r llofnodwyr mwy synhwyrol fel yr arbenigwr diogelwch Bruce Schneier edifeirwch i'r arwyddwyr yn gyflym. “Nid wyf mewn gwirionedd yn meddwl bod AI yn peri risg i ddifodiant dynol,” meddai Schneier.

Roedd eraill yn meddwl mai gimig codi arian oedd y datganiad mewn gwirionedd. Postiodd Athro Cymdeithaseg Prifysgol Dug Kieren Healy aralleiriad ffug: “bydd fy ffrindiau a minnau angen llwyth enfawr o arian grant i liniaru’r bygythiadau dirfodol llythrennol ar lefel rhywogaeth sy’n gysylltiedig â’r peth hwn yr ydym yn honni ei fod yn ei wneud.”

Awgrymodd Marietje Schaake, cyn seneddwr yr UE sydd bellach â Chanolfan Polisi Seiber Prifysgol Stanford, mai is-destun y datganiad oedd y dylai llunwyr polisi ddelio â risg dirfodol, tra bod swyddogion gweithredol busnes yn gosod y rheolau gwirioneddol ar gyfer defnyddio AI. Er y gallai AI fod yn newydd, meddai, nid oedd y ddadl ymhlyg hon bod arweinwyr diwydiant AI “yn y sefyllfa orau i reoleiddio’r union dechnolegau y maent yn eu cynhyrchu” yn ddim mwy na phwyntiau siarad a ailgylchwyd o’u defnydd blaenorol mewn cyfryngau cymdeithasol a dadleuon cryptocurrencies.

Fy marn i yw bod rhybuddion apocalyptaidd o AI yn cyflawni asiantaeth ymwybodol ac annibynnol yn tynnu sylw oddi wrth yr heriau AI go iawn sy'n ei gwneud yn ofynnol i reoleiddwyr gynyddu gorfodi'r gyfraith gyfredol a llunwyr polisi i ystyried diwygiadau i ddelio â bylchau cyfreithiol.

Mae twyll a gyflawnir gan ddefnyddio AI yn anghyfreithlon, fel y dywedodd Cadeirydd y Comisiwn Masnach Ffederal Lina Khan. Mae'r asiantaeth eisoes wedi rhybuddio am ddefnyddio AI i ddynwared pobl i gyflawni sgamiau fideo a ffôn. Mae Tsieina wedi sylwi ar yr un peth ac mae'n mynd i'r afael â sgamiau sy'n cael eu gyrru gan AI. Nid yw'n glir bod materion cyfreithiol newydd yma, ond byddai angen ymdrechion gorfodi enfawr i reoli'r llifogydd hyn o dwyll AI. Byddai ariannu cais cyllideb yr asiantaeth o $590 miliwn yn llawn yn ddefnydd llawer mwy cynhyrchiol o arian cyhoeddus nag astudiaeth o risgiau dirfodol AI.

Mae pawb yn poeni'n iawn am wybodaeth anghywir a grëwyd gan AI, fel y cyhoeddiad diweddar 'Fake Putin' bod Rwsia dan ymosodiad. Gallai labelu helpu i leihau'r risgiau hyn. Defnyddiodd yr hysbyseb gan y Pwyllgor Cenedlaethol Gweriniaethol a ddilynodd gyhoeddiad Biden am ei ymgeisyddiaeth arlywyddol AI i gynhyrchu delweddau o'r hyn a allai ddigwydd o dan Lywyddiaeth Biden newydd ond cafodd ei labelu felly a gostyngodd hynny'r risg o wybodaeth anghywir.

Mae tryloywder ar gyfer AI yn ffrwyth polisi crog isel y dylai llunwyr polisi ei fachu, fel y mae'n ymddangos bod rhai yn ei wneud. Yr wythnos hon anogodd is-lywydd y Comisiwn Ewropeaidd, Vera Jourova, gwmnïau technoleg i labelu'r cynnwys a gynhyrchir gan ddeallusrwydd artiffisial. Yn yr Unol Daleithiau, bydd y Cynrychiolydd Ritchie Torres (DNY) yn cyflwyno’r ddeddfwriaeth yn fuan a fyddai’n ei gwneud yn ofynnol i wasanaethau fel ChatGPT ddatgelu bod ei allbwn wedi’i “gynhyrchu gan ddeallusrwydd artiffisial.”

Mae hawlfraint a deallusrwydd artiffisial yn her arall. Mae angen rhywfaint o eglurder ynghylch digolledu perchnogion hawlfraint am ddefnyddio eu deunydd ar gyfer hyfforddiant AI. Ym mis Chwefror, siwiodd Getty Stability AI yn yr Unol Daleithiau gan ddweud bod y cwmni AI wedi copïo 12 miliwn o ddelweddau Getty heb ganiatâd i hyfforddi ei feddalwedd cynhyrchu delweddau Stable Diffusion AI. Yr wythnos diwethaf gofynnodd i lys yn Llundain rwystro Stability AI yn y DU oherwydd bod y cwmni AI wedi torri hawlfraint Getty wrth hyfforddi ei system.

Bydd yr achosion hyn yn cael eu hasio yn y llys. Ond mae dadl weddus nad oes angen i ddeiliaid hawlfraint gael eu digolledu o gwbl naill ai oherwydd defnydd teg neu oherwydd mai dim ond ffeithiau a syniadau heb eu diogelu sy'n cael eu tynnu ar gyfer hyfforddiant AI. Ar ben hynny, mae cyfarwyddeb Hawlfraint yn y Farchnad Sengl Ddigidol 2019 yr Undeb Ewropeaidd yn cynnwys eithriad sy'n caniatáu cloddio testun a data o ddeunydd hawlfraint ar-lein oni bai bod perchennog yr hawlfraint yn optio allan trwy ddefnyddio amddiffyniadau technolegol fel atalydd penawdau i atal sganio. Gallai hyn gwmpasu data hyfforddiant AI.

Mae drafft cyfredol Deddf Deallusrwydd Artiffisial yr Undeb Ewropeaidd yn ei gwneud yn ofynnol i ddatgelu'r gweithiau hawlfraint a ddefnyddir wrth hyfforddi systemau AI. Ymddengys mai bwriad hyn yw galluogi perchnogion hawlfraint i arfer eu hawl i optio allan o gloddio testun a data ar gyfer hyfforddiant AI. Ond fe allai hefyd fod yn gam tuag at rywbeth pellach. Gallai arwain at gyfundrefn drwyddedu orfodol a fyddai’n atal deiliaid hawlfraint rhag rhwystro hyfforddiant AI ond yn rhoi rhywfaint o iawndal iddynt am ddefnyddio eu heiddo deallusol. Bydd datrys y materion hawlfraint hyn yn gofyn am sylw penodol gan lunwyr polisi.

Mae Deddf AI yr UE hefyd yn ei gwneud yn ofynnol i systemau AI peryglus fynd trwy broses ardystio gyda'r nod o sicrhau bod risgiau wedi'u hasesu'n ddigonol a bod mesurau lliniaru rhesymol wedi'u mabwysiadu. Mae'r drafft presennol yn trin modelau sylfaenol fel ChatGPT fel systemau peryglus sy'n destun ardystiad, baich posibl a ysgogodd bennaeth Open AI, Sam Altman, i ddweud y byddai'n tynnu ChatGPT yn ôl o Ewrop pe na bai'n gallu cydymffurfio ag ef. Ers hynny mae wedi cerdded y bygythiad hwnnw yn ôl, gan ddweud nad oes ganddo unrhyw gynlluniau i adael.

Ac eto mae ganddo bwynt. Dylai llunwyr polisi sy'n edrych am fater pendant i gnoi cil arno ofyn i'w hunain sut y gellid ardystio system AI pwrpas cyffredinol fel ChatGPT fel un “diogel” pan fydd llawer o'r risgiau'n dod i'r amlwg dim ond wrth i'r system gael ei chymhwyso'n ymarferol.

Dim ond rhai o'r materion AI allweddol a ddylai fod o bryder i lunwyr polisi yw'r rhain. Mae eraill yn cynnwys effeithiau cyflogaeth systemau AI sy’n fwyfwy galluog, heriau preifatrwydd pan fydd data hyfforddi yn cynnwys gwybodaeth bersonol, y duedd i ganolbwyntio a achosir gan gostau enfawr ac effeithiau rhwydwaith hyfforddiant meddalwedd AI, cymhwyso rheolau atebolrwydd Adran 230, a gorfodi y cyfreithiau yn erbyn rhagfarn mewn benthyca, tai a chyflogaeth pan fo AI yn gyrru asesiadau cymhwyster.

Nid oes angen ac ni ddylai llunwyr polisi grwydro i fyd niwlog lle mae rhaglenni AI ymreolaethol yn deillio o reolaeth ac yn bygwth goroesiad dynol. Mae ganddyn nhw ddigon o waith i'w wneud i fynd i'r afael â heriau niferus AI yn y byd go iawn.

Ffynhonnell: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/