English

5. Risgiau posibl

Cynnwys

Un o brif risgiau AI cynhyrchiol yw'r potensial ar gyfer cynnwys anghywir neu gamarweiniol. Mae'n bwysig sicrhau bod pobl ifanc yn deall nad yw allbynnau AI cynhyrchiol yn sicrhau cywirdeb ffeithiol. Dylen nhw wirio'r wybodaeth a ddarperir yn erbyn ffynonellau eraill bob amser. Bydd rhai offer AI cynhyrchiol, fel Copilot, hefyd yn darparu dolenni i'r gwefannau sy'n cynnwys yr wybodaeth wreiddiol, fel bod defnyddwyr yn gallu gwirio'r cynnwys, ond nid yw hyn yn safonol ar draws pob platfform. Mae arolwg y National Literacy Trust (Saesneg yn unig) yn dangos mai dim ond 1 o bob 5 o bobl ifanc yn eu harddegau sy'n gwirio'r wybodaeth maen nhw'n ei chael gan offeryn AI. Fel arfer, rydym yn argymell bod pobl ifanc yn gwirio'r wybodaeth a gynhyrchir gan offer AI gan ddefnyddio 2 ffynhonnell arall i wirio bod yr wybodaeth yn gywir. Mae hwn yn sgìl bywyd gwych i bobl ifanc ei feithrin, gan fod meddwl beirniadol ac adolygu ffynonellau nid yn unig yn rhan bwysig o ddefnyddio AI cynhyrchiol, ond hefyd yn sgìl defnyddiol i'w ddatblygu a fydd yn gwella llythrennedd digidol yn ogystal ag agweddau eraill ar waith ysgol.

Er bod yr offer hyn yn gallu cynhyrchu testun a delweddau sicr neu argyhoeddiadol, nid ydyn nhw’n deall pa mor wir yw'r wybodaeth maen nhw'n ei chynhyrchu. Mae AI wedi'i hyfforddi ar ddata, sy'n golygu y bydd unrhyw ddata anghywir neu unochrog yn cael ei adlewyrchu yn ymateb offeryn AI. Gall hyn arwain at offeryn AI yn cynhyrchu gwybodaeth ffug neu unochrog. Gall beri pryder arbennig pan fydd rhywun yn defnyddio cynnwys AI at ddibenion academaidd, oherwydd gallai myfyrwyr fod yn dibynnu ar wybodaeth anghywir, yn ddiarwybod iddyn nhw. Mae'n bwysig cofio taw cyfrifiaduron ac nid bodau dynol yw offer AI cynhyrchiol ac nad ydyn nhw’n gallu gwahaniaethu rhwng ffaith a ffuglen.

Mae risg y gallai plant a phobl ifanc ddod ar draws cynnwys anaddas wrth ddefnyddio offer AI cynhyrchiol. Er bod gan lawer o lwyfannau AI ganllawiau cymunedol neu hidlwyr eisoes ar eiriau a themâu penodol, sy'n ei gwneud hi'n llai tebygol i ddefnyddwyr ddod ar draws cynnwys amhriodol, ni ddylid dibynnu'n llwyr arnyn nhw. Gall offer AI, yn ddiarwybod, ddangos cynnwys i ddefnyddwyr sy’n anaddas i'w hoedran neu lefel aeddfedrwydd.

Mae'n bwysig cofio mai dim ond ymateb i neges annog mae AI, ac felly ni fydd yn creu cynnwys anaddas oni bai ei fod yn cael cais i wneud hynny. Mae negeseuon annog diniwed weithiau'n gallu arwain at gynhyrchu cynnwys annisgwyl neu amhriodol. Gall hyn ddigwydd oherwydd y ffordd mae’r offeryn AI yn dehongli'r neges annog neu ddylanwad data unochrog yn ei set hyfforddi. Cofiwch atgoffa'ch plentyn i siarad â chi os yw'n dod ar draws unrhyw gynnwys sy'n peri gofid neu ddryswch wrth ddefnyddio AI cynhyrchiol. Mae hefyd yn werth cofio bod rhai defnyddwyr yn chwilio am ffyrdd o drechu neu ragori ar AI a byddan nhw’n rhannu'r awgrymiadau hyn ar lwyfannau eraill. Dylai rhieni a gofalwyr gadw llygad ar ddefnydd eu plentyn o'r cyfrwng o bryd i'w gilydd, er mwyn helpu i liniaru'r risgiau hyn.

Mae risg y gallai dysgwyr ddefnyddio cynnwys a gynhyrchwyd gan AI fel eu gwaith eu hunain, heb briodoli'n briodol. Gall hyn arwain at anonestrwydd academaidd a thanseilio'r broses ddysgu. Mae'n bwysig trafod gyda phlant bwysigrwydd gwaith gwreiddiol a chyfeiriadau priodol wrth ddefnyddio offer AI.

Cysylltu ag eraill

Gall offer AI cynhyrchiol achosi risgiau penodol i berthnasoedd, er nad yw'n aml yn bosibl cysylltu ag eraill trwy offer AI. Fodd bynnag, gall plant ddefnyddio offer AI i drafod eu perthnasoedd go iawn â phobl eraill. Dylai plant osgoi rhannu manylion personol gydag offer AI, gan fod y data hwn yn cael ei gasglu a'i storio fel arfer. Ar y cyfan, does gan offer AI ddim y cynildeb a’r cyd-destun sydd gan bobl mewn perthynas ac ni ddylen nhw ddisodli bodau dynol wrth gael cyngor ar berthynas.

Hefyd, mae perygl y gallai cynnwys a gynhyrchir gan AI arwain at fwy o bwysau cymdeithasol. Mae'n hawdd rhannu cynnwys wedi'i greu gan AI ar lwyfannau cyfryngau cymdeithasol fel Instagram, TikTok a Snapchat. Gallai plant ddefnyddio memes, gwaith celf neu hyd yn oed negeseuon ffraeth a gynhyrchir gan AI i ennill poblogrwydd ('likes'), dilynwyr neu i ddiddanu eu ffrindiau. Mae defnyddio AI ar gyfer dilysu cymdeithasol yn gallu achosi i blant deimlo eu bod yn gorfod cynhyrchu cynnwys mwy creadigol neu gaboledig i ddal lan â chyfoedion. Yn ei dro, gall plant ddod yn orbryderus neu brofi ymdeimlad negyddol o hunan-werth ar sail sut mae eraill yn derbyn eu creadigaethau sydd wedi'u hategu gan AI.

Ymddygiad defnyddwyr

Wrth i offer AI ddod yn rhan fwyfwy cyffredin o fywyd bob dydd, mae risg y gallai plant ddibynnu gormod arnyn nhw ar gyfer tasgau a fyddai fel arfer yn gofyn am feddwl beirniadol neu greadigrwydd, fel darn o waith cartref neu brosiect creadigol arall. Gallai gorddibynnu ar AI rwystro'r plentyn rhag datblygu sgiliau datrys problemau hanfodol, ymchwil annibynnol a meddwl gwreiddiol. Er y dylid annog pobl ifanc i ddatblygu eu sgiliau wrth ddefnyddio offer AI cynhyrchiol, dylen nhw feithrin dull cytbwys o ddefnyddio AI, trwy ei ddefnyddio i ategu ymdrech ddynol yn hytrach na'i disodli.

Hefyd, mae perygl y byddai'n well gan rai plant ryngweithio ag AI yn hytrach na’u cyfoedion dynol. Mae AI yn aml wedi'i gynllunio i ymateb yn gadarnhaol i unrhyw gais, ac mae’n bosibl y bydd plant yn cael mwy o foddhad o hyn ac yn ei gael yn haws ei reoli. Hefyd, bydd llawer o offer AI yn ymateb yn fwriadol mewn modd personol ac ymatebol. Oherwydd hyn, gall defnyddwyr ffurfio cwlwm sy'n debyg i berthynas mewn bywyd go iawn. Gall hyn ddod yn arbennig o broblemus os bydd ymddygiad yr offeryn AI yn newid yn annisgwyl neu'n dod yn or-feddiannol, gan achosi trallod emosiynol i'r defnyddiwr. Mae'n bwysig atgoffa pobl ifanc na all AI wir efelychu emosiynau neu berthnasoedd dynol. Ni ddylai'r offer hyn ddisodli cysylltiadau cymdeithasol yn y byd go iawn.

Dylai rhieni a gofalwyr annog plant i feithrin perthynas â'u cyfoedion er mwyn helpu i wrthweithio'r duedd hon. Atgoffwch eich plentyn mai cyfrifiaduron, nid bodau dynol, yw offer AI, ac na allan nhw efelychu perthnasoedd empathig wedi'u ffurfio a'u meithrin â phobl eraill.

Dylunio, data a chostau

Mae defnyddio offer AI cynhyrchiol yn aml yn golygu rhannu data personol, p'un ai trwy orchmynion llais, negeseuon annog wedi'u teipio neu wasanaethau integredig. Mae llawer o systemau AI yn casglu data ar ryngweithio defnyddwyr i wella eu gwasanaethau. Gallai'r data hwn gynnwys gwybodaeth bersonol, megis hanes chwilio, lleoliad a hyd yn oed recordiadau llais. Dylai rhieni a gofalwyr fod yn ymwybodol o bolisïau preifatrwydd yr offer AI mae eu plant yn eu defnyddio ac ystyried goblygiadau casglu data.

Gallai dyluniad sylfaenol yr offer AI gynnwys elfen o risg hefyd. Mae cynnwys a grëir gan AI cynhyrchiol yn aml yn cael ei storio gan y platfform a'i adolygu gan bobl i wella ymatebion. Mae'n bwysig bod plant a phobl ifanc yn deall hyn fel eu bod yn gwybod y gall person go iawn weld unrhyw wybodaeth, fel enwau a lleoliadau.

Er bod llawer o blatfformau AI ar gael yn rhad ac am ddim, efallai y byddan nhw’n aml yn cynnwys math o wasanaethau sydd angen talu amdanyn nhw, fel fersiwn 'premiwm' neu 'pro'. Efallai y bydd y llwyfannau hyn yn dewis cuddio rhai nodweddion y tu ôl i wal dalu neu gynnig opsiynau 'boost' y gellir eu prynu i gyflymu cynhyrchiant neu gynyddu realaeth a lefelau manylder. Gall llwyfannau eraill gyfyngu ar faint o amser y gall defnyddiwr ryngweithio mewn cyfnod penodol o amser, fel arfer trwy gyfyngu'r defnyddiwr i gyfnod amser 24 awr neu gyfnod prawf o fis am ddim. Mae angen talu i danysgrifio i rai offer AI, fel llwyfannau cynhyrchu delweddau mwy pwerus. Siaradwch â'ch plentyn am sut mae tanysgrifiadau'n gweithio a'u hatgoffa bod hon yn strategaeth fusnes i gwmnïau fel OpenAI wneud arian, yn hytrach na chynnig rhywbeth sydd o fudd enfawr i ddefnyddwyr.

  • Blaenorol

    Llwyfannau poblogaidd AI cynhyrchiol

  • Nesaf

    Awgrymiadau ar gyfer cadw'ch plentyn yn ddiogel