Mae Moment Cry Blaidd O AI Hype Yn Ddigymorth

Er fy mod yn rhywun sy'n astudio senarios diwedd dynoliaeth, rwy'n credu bod y “llythyr arbenigol” sy'n awgrymu moratoriwm AI 6 mis neu'r datganiad mwy diweddar bod risg AI ar lefel risg pandemig a niwclear, ill dau wedi'u gorbwysleisio. Mae'r farn hyd yn oed yn fwy gwyllt bod angen i ni gau AI i lawr yn anghyfrifol. Rhaid i unrhyw bryder fod yn gymesur â'r risgiau a wynebwn. Ar hyn o bryd, nid ydym mewn unrhyw berygl uniongyrchol gan AI.

Nid yw AI presennol yn gallu cymryd cymdeithas drosodd. Nid oes ganddynt deimladau ac nid ydynt yn haeddu amddiffyniad fel y mae bywydau dynol yn ei wneud. Nid ydynt yn uwch-ddeallus ac nid ydynt yn rhagori ar fodau dynol mewn unrhyw ffordd gyffredinol. Yn wir, nid ydynt yn meddwl o gwbl. Ar hyn o bryd, os cânt ddigonedd o ddata, mae AIs yn dda iawn mewn tasgau penodol fel cyfrifo a rhagfynegi. Nid yw hynny'n peri pryder, mae'r rheini'n nodweddion sydd gan y systemau hyn o ran dyluniad. Mae addewid AIs yn cynnwys datrys canser, trawsnewid cynhyrchu diwydiannol, modelu senarios y dyfodol, a rheoli heriau amgylcheddol. Wedi dweud hynny, mae rhesymau dilys dros feirniadu’r Mynegai Gwerthfawrogiad presennol am ddefnyddio adnoddau, tryloywder, rhagfarn, seiberddiogelwch, a’i effaith ar gyflogaeth yn y dyfodol.

Mae AI yn gyfrifiadurol ddrud – sy'n golygu eu bod yn wastraff mawr ar ynni prin, ffosil. Mae'n rhaid mynd i'r afael â hyn ar unwaith. Ond nid yw'n fater dirfodol, mae'n fater o ddefnyddio adnoddau yn rhesymegol. Mae’r ffaith bod AI sy’n dibynnu ar fodelau data mawr ac aneffeithlon yn mynd yn rhy ddrud i’w holrhain a’u hymchwilio gan y byd academaidd neu’r llywodraeth yn broblem wirioneddol. Ond mae modd ei drwsio yn fuan. Gallai consortia o sefydliadau academaidd elitaidd neu lywodraethau fynd at ei gilydd a rhannu adnoddau cyfrifiadurol fel y maent wedi'i wneud ar gyfer uwchgyfrifiadura.

Mae Modelau Iaith Mawr (LLM) yn fodelau AI sy’n gallu cynhyrchu testunau iaith naturiol o symiau mawr o ddata. Un broblem gyda hynny yw bod y testunau hyn yn deillio’n uniongyrchol o gyfraniadau deallusol gonest pobl eraill. Maent mewn gwirionedd yn cael eu dwyn. Mae AI cynhyrchiol, yn arbennig, yn ailgyfuno data defnyddwyr a sefydliadol yn ogystal â chynnwys creadigol gan dorri hawlfraint yn llwyr. Mae hyn yn ddifrifol, ond nid yn dirfodol, ac ar ben hynny, mae'r UE, lobïwyr o Hollywood a chyhoeddwyr llyfrau “pump mawr” eisoes ar yr achos. Disgwyliwch i hyn arafu pwysau AI. Ar y gyfradd bresennol, bydd AYs yn rhedeg allan o ddata hyfforddi da ymhell cyn iddo nesáu at deimladau.

Mae diffyg tryloywder trawiadol i algorithmau a ddefnyddir eisoes i gyfrifo ein trethi, i ddewis ein ffrydiau ar-lein, neu i roi pobl yn y carchar. Fodd bynnag, mae hyn wedi bod yn wir ers blynyddoedd, ac nid oes ganddo unrhyw beth i'w wneud â'r datblygiadau AI diweddaraf. Nodwedd ac nid byg yw rhagfarn AI. Stereoteipio, mewn gwirionedd, yw'r prif ddull y mae modelau o'r fath yn gweithio drwyddo. Ac eithrio bod y rhagfarn wedi'i chuddio mewn haenau anhreiddiadwy o resymu peirianyddol sy'n anodd dod i gysylltiad â phobl, arbenigwyr ai peidio. Yr hyn y dylem ei gwestiynu yw doethineb y datblygwyr a ddatblygodd systemau o'r fath, nid gallu'r system a grëwyd ganddynt, a roddir. Anaml y bydd systemau yn well na doethineb neu fwriadau'r rhai sy'n ei adeiladu neu'n ei redeg.

Mae data hyfforddiant AI yn adlewyrchu'r rhagfarnau sy'n bresennol mewn cymdeithas y casglwyd y data hwnnw ohonynt. Mae ailddefnyddio data hyfforddi gwael yn arfer pryderus sy'n llygru modelau AI yn barod. Yn syml, mae dulliau AI presennol yn ymhelaethu ar duedd er mwyn cyrraedd canlyniad yn gyflym. Mae hyn, rhaid cyfaddef, i'r gwrthwyneb i'r hyn yr ydym ei eisiau. Yr hyn yr ydym am ei wneud yw defnyddio technoleg i ddiogelu gwallau dynol. Mae poeni am gamgymeriad peiriant yn ddefnydd gwastraffus o ddeallusrwydd dynol.

Er gwaethaf y trosiad “rhwydwaith niwral”, nid yw AI cyfredol yn ymdebygu i'r ymennydd o unrhyw ran o'r dychymyg. Ni all systemau AI cyfredol resymu trwy gyfatebiaeth fel y mae bodau dynol yn ei wneud. Mae hyn yn dda. Efallai nad ydym mewn gwirionedd eisiau’r math o aliniad AI y mae sealots yn eiriol drosto ac yn ceisio ei efelychu. Dylai peiriannau fod yn wahanol i fodau dynol. Dyna sut y gallwn wneud y mwyaf o gryfderau ein gilydd. A sut y gallwn gadw peiriannau ar wahân ac ar wahân. Ni ddylai fod gan beiriannau unrhyw fuddiannau i'w halinio.

Mae AI yn gynyddol yn cynrychioli bygythiad seiberddiogelwch sylweddol fel ased i droseddwyr a gwladwriaethau gelyniaethus. Ond mae seiberddiogelwch yn ddiwydiant aeddfed gyda digon o arbenigwyr mewn sefyllfa dda i ymdopi â'r her. Nid oes unrhyw reswm i gau AI oherwydd ofnau seiberddiogelwch.

Mae tarfu ar gyflogaeth oherwydd AI wedi bod yn fater polisi ers blynyddoedd, yn gyntaf gyda robotiaid, bellach gyda systemau AI seiliedig ar feddalwedd. Mae hynny'n golygu y bydd llywodraethau'n barod i ddelio ag ef. Canfu astudiaeth MIT Work of The Future fod y pryder ynghylch diweithdra oherwydd robotiaid yn cael ei orbwysleisio. Mae bodau dynol bob amser wedi dod o hyd i ffyrdd o weithio a byddant yn gwneud hynny yn y dyfodol hefyd. A fydd gweithgynhyrchu yn cael ei drawsnewid gan AI? Mae eisoes yn digwydd, ond mewn modd eithaf rheoledig.

O bryd i'w gilydd, mae AI yn dioddef o addewidion sydd wedi'u gor-hysbysu ynghylch ymarferoldeb presennol neu gwmpas y dyfodol. Dechreuodd y gaeafau AI cyntaf ym 1974-1980, wrth i lywodraeth yr UD dynnu ei chyllid. Roedd yr ail rhwng 1987 a 1993, wrth i gostau gynyddu, a methodd AI â chyflawni ei addewidion uchel.

Gan aros i baradeimau newydd gyrraedd, yn y cyfnod rhwng 2025 a 2030, mae'n debygol y byddwn yn cychwyn ar drydydd gaeaf AI. O leiaf o'i gymharu â'r haf poeth AI rydym yn addo. Y rheswm yw, er gwaethaf yr hype, am yr holl resymau a amlinellwyd uchod, fod modelau iaith mawr ar fin cyrraedd eu defnyddioldeb mwyaf ac yn y pen draw bydd angen eu disodli gan ddulliau cyfrifiadurol mwy cain sy'n fwy tryloyw.

Un ymgeisydd o'r fath yw cyfrifiadura hyperddimensiwn a fyddai'n gwneud i beiriannau resymu'n fwy effeithlon oherwydd eu bod yn rhoi dealltwriaeth semantig i beiriannau, y gallu i brosesu ystyr a chyd-destun y tu ôl i wybodaeth y byd go iawn. Ar hyn o bryd, nid yw systemau AI yn deall y berthynas rhwng geiriau ac ymadroddion, maent yn syml yn dda am ddyfalu. Mae hynny'n annigonol. Yn y pen draw bydd angen AI ymgorfforedig arnom, oherwydd mae meddwl yn gysylltiedig â chanfyddiad o ofod. Mae hynny'n bendant yn wir mewn gweithgynhyrchu sy'n gêm hynod gorfforol. Bydd arnom hefyd angen AI sy'n gallu nodweddion cof dynol megis blaenoriaethu yn seiliedig ar flaenori rhywfaint o wybodaeth a chefndir gwybodaeth arall. Mae anghofio yn arf y mae bodau dynol yn ei ddefnyddio ar gyfer meddwl haniaethol, symud ymlaen o arferion sefydliadol anarferedig, gwneud penderfyniadau, ac ar gyfer aros yn y foment ac nid yw'n ddiffyg yn unig. Ni all unrhyw beiriannau wneud hynny'n dda iawn eto.

Yn y cyfamser, mae angen i ni reoleiddio, ond nid yr eiliad hon. A phan fyddwn yn rheoleiddio, mae'n well inni ei wneud yn dda. Mae rheoleiddio gwael ar AI yn debygol o waethygu'r sefyllfa. Gall deffro rheoleiddwyr i'r her hon fod yn ddefnyddiol, ond nid wyf yn siŵr bod y genhedlaeth bresennol o reoleiddwyr yn barod am y math hwnnw o newidiadau ysgubol y byddai eu hangen i'w gwneud yn dda. Byddai'n golygu cwtogi ar gwmnïau pwerus (pob cwmni rhestredig o bosibl), gan gyfyngu ar ddefnydd AI mewn llywodraethu, a byddai'n golygu newidiadau enfawr i'r ffordd y mae marchnadoedd defnyddwyr yn gweithio ar hyn o bryd. Yn y bôn, byddai’n rhaid inni ailweirio cymdeithas. Byddai'n ein tywys i ddirywiad ychydig ddegawdau ynghynt nag y gallem ddymuno. Gallai'r her tryloywder sy'n ymwneud â deallusrwydd artiffisial fod yn fwy aruthrol na'r newidynnau rheoli y mae pawb yn ymddangos mor bryderus yn eu cylch, nid eu bod yn amherthnasol, wrth gwrs.

Ar ben hynny, ni allwn fod yr un mor bryderus bob tro y cyrhaeddir meincnod AI. Mae angen i ni warchod ein hegni ar gyfer eiliadau gwirioneddol fawr o risg rhaeadru. Byddant yn dod ac, a bod yn deg, nid ydym yn barod. Mae fy senarios a ragwelir ar gyfer y dyfodol (gweler Senarios Difodiant ar gyfer 2075) yn cynnwys toriadau data enfawr sy'n cadw gwledydd cyfan wedi'u cloi allan o'u prosesau eu hunain am fisoedd. Rwyf hefyd yn poeni am AYs sy'n cael eu helpu gan grwpiau troseddol neu actorion gwladwriaeth. Yn bennaf oll, rwy'n poeni am gyfuniadau o AI, nanotech, bioleg synthetig a thechnoleg cwantwm - deallusrwydd lled-organig anweledig o allu anhysbys, efallai dim ond ychydig ddegawdau i ffwrdd, yn digwydd pan fydd y byd yn cael ei fwyta gan effeithiau rhaeadru hinsawdd. newid.

Nid yw modelau AI cyfredol yn gweithio'n ddigon da eto i fod yn fygythiad i ddynoliaeth. Cyn y gallwn ystyried eu cau i lawr, mae angen gwell AIs arnom. Yn fwy na hynny, mae arnom angen datblygwyr doethach, dinasyddion mwy sensiteiddiedig, a llunwyr polisi mwy gwybodus. Mae angen cysyniad arnom hefyd ar gyfer SUT i reoleiddio AI. Ond gellir gwneud hyn heb arafu dim. Bydd yn daith addysgiadol i bawb. Mae'r llythyr moratoriwm sy'n ymwneud â GPT 4 (2023) yn foment gri blaidd gyda dim ond lled debyg i'r risgiau rhaeadru y mae dynoliaeth yn eu hwynebu yn y degawdau nesaf. Mae rhoi risg AI ar lefel risg pandemig a risg niwclear yn 2023 yn gynamserol. A gawn ni yno? Efallai. Ond mae gan grio blaidd ganlyniadau. Mae'n sugno'r ocsigen allan o ddadleuon sydd ar ddod am ofnau go iawn.

Ffynhonnell: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/