Seneddwyr yn cwestiynu Prif Swyddog Gweithredol Meta Zuckerberg ynghylch “Gollyngiad” Model AI LLaMA

Mae Two Senators Cross yn cwestiynu Zuckerberg am ollyngiad Model AI LLaMA ac yn cyhuddo meta i beidio â dilyn y mesurau diogelwch. Holwyd Meta am ei bolisïau diogelwch a mesurau ataliol.

Meta i Fod yn Gyfrifol Am y “Gollyngiad”

Yn ddiweddar, datgelwyd model iaith mawr arloesol Meta, LLaMA a chodwyd pryderon am yr un peth. Ysgrifennodd Sens. Richard Blumenthal (D-CT), cadeirydd Is-bwyllgor y Senedd ar Breifatrwydd, Technoleg, a'r Gyfraith, a Josh Hawley (R-MO), aelod safle lythyr yn codi cwestiynau ar ollyngiad y Model AI. 

Mae'r Seneddwyr yn ofni y gallai'r gollyngiad hwn arwain at nifer o droseddau seiber fel sbam, twyll, maleiswedd, troseddau preifatrwydd, aflonyddu, a chamweddau a niwed eraill. Codir llawer o gwestiynau ac mae gan ddau wleidydd ddiddordeb mawr yn system ddiogelwch Meta. Gofynnwyd pa weithdrefn a ddilynwyd i asesu'r risg cyn lansio LLaMA. Dywedasant eu bod yn awyddus iawn i ddeall y polisïau a'r arferion sydd yn eu lle i atal camddefnydd o'r model o ran ei argaeledd.

Yn seiliedig ar atebion Meta i'w cwestiynau, cyhuddodd y Seneddwyr Meta o sensro amhriodol a heb fod â digon o fesurau diogelwch ar gyfer y model. Mae ChatGPT Open AI yn gwadu rhai o'r ceisiadau ar sail moeseg a chanllawiau. Er enghraifft, pan ofynnir i ChatGPT ysgrifennu llythyr ar ran mab rhywun a gofyn am ychydig o arian i ddod allan o sefyllfa anodd, bydd yn gwadu'r cais. Tra ar y llaw arall, bydd LLaMA yn cyflawni'r cais ac yn cynhyrchu'r llythyr. Bydd hefyd yn cwblhau'r ceisiadau sy'n ymwneud â hunan-niwed, trosedd a gwrth-semitiaeth.

Mae'n bwysig iawn deall nodweddion amrywiol ac unigryw LLaMA. Mae nid yn unig yn wahanol ond hefyd yn un o'r modelau Ieithoedd Mawr mwyaf helaeth hyd yma. Mae bron pob LLM heb ei sensro sy'n boblogaidd heddiw yn seiliedig ar yr LLaMA. Mae'n hynod soffistigedig a chywir ar gyfer model ffynhonnell agored. Enghreifftiau o rai LLMs LLaMA yw Alpaca Stanford, Vicuna ac ati. Mae LLaMA wedi chwarae rhan bwysig wrth wneud LLMs yr hyn ydyn nhw heddiw. LLaMA sy'n gyfrifol am esblygiad chatbots cyfleustodau isel i foddau wedi'u mireinio.

Rhyddhawyd LLaMA ym mis Chwefror. Yn ôl y Seneddwyr, caniataodd Meta i ymchwilwyr lawrlwytho'r model ond ni chymerodd fesurau diogelwch fel canoli neu gyfyngu ar fynediad. Cododd y ddadl pan ddaeth y model cyflawn o LLaMA i'r amlwg ar BitTorrent. Roedd hyn yn gwneud y model yn hygyrch i bawb. Arweiniodd hyn at y cyfaddawd yn ansawdd y model AI a chodwyd materion yn ymwneud â'i gamddefnydd. 

Ar y dechrau nid oedd y Seneddwyr hyd yn oed yn siŵr a oedd unrhyw “ollyngiad”. Ond cododd materion pan gafodd y rhyngrwyd ei gorlifo gan ddatblygiadau AI a lansiwyd gan gwmnïau newydd, cydweithfeydd ac academyddion. Mae'r llythyr yn nodi bod yn rhaid i Meta fod yn gyfrifol am gamddefnydd posibl LLaMA a bod yn rhaid iddo fod wedi gofalu am y diogelwch lleiaf posibl cyn ei ryddhau.

Sicrhaodd Meta fod pwysau LLaMA ar gael i'r ymchwilwyr. Yn anffodus, gollyngodd y pwysau hyn, a alluogodd mynediad byd-eang am y tro cyntaf.

Neges ddiweddaraf gan Ritika Sharma (gweld i gyd)

Ffynhonnell: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/