Lees jou gunsteling-tydskrifte en -koerante nou alles op een plek teen slegs R99 p.m. Word 'n intekenaar
Aktueel
KI het ook toesig nodig

Moet ons bang wees vir masjiene wat self kan “dink”? Die Europese Unie het ’n raamwerk voorge­stel vir die regulering van Kunsmatige Intelligensie, skryf Basie von Solms.

Masjiene gedryf deur kunsmatige intelligensie kan die lewe vir mense baie makliker maak – of baie gevaarliker. Foto: ISTOCK

Die Europese Unie (EU) het verlede maand ’n raamwerk oor kunsmatige intelligensie (KI) gepubliseer. Die doel daarvan is om ’n klassifikasieskema vir die ontwikkeling en inwerkingstelling van KI-stelsels daar te stel.

Maar wat is KI? Daar is talle definisies, maar basies verwys die term na die vermoë van rekenaars om menslike intelligensie te simuleer. Rekenaars word geprogrammeer deur gebruik te maak van komplekse en gesofistikeerde algoritmes. Die resultaat is rekenaarstelsels wat veronderstel is om te dink soos die mens en menslike eienskappe (soos om te kan leer, logies te kan dink en probleme te kan oplos) besit. Dit beteken dat die rekenaar poog om die menslike brein te simuleer deur die vermoë om te leer en te ontleed.

Bedreiging vir mense

Baie navorsers en wetenskaplikes is bekommerd oor KI. Stephen Hawking­, wêreldbekende wetenskaplike, het gewaarsku dat die ontwikkeling van gevorderde KI-stelsels die einde van die mensdom kan beteken.

Die tegnologie-entrepreneur Elon Musk meen selfs dat gevorderde KI-stelsels potensieel gevaarliker as kernwapens kan wees. In ’n studie deur die Stanford-Universiteit word kommer uitgespreek dat dit eendag moontlik kan wees dat die mens beheer sal verloor oor KI-stelsels weens superintelligente stelsels wat nie in ooreenstemming met die mens se opdragte optree nie en dat sulke stelsels uiteindelik die mensdom kan bedreig.

Met die groeiende ontwikkeling van gevorderde tegnologieë in die Vierde Nywerheidsrevolusie is dit uiters belangrik om te verseker in watter rigting ons beweeg met die ontwikkeling van stelsels en robotte wat gebruik maak van KI.

Aan die een kant mag waarskuwings soos dié van Hawking en Musk oordrewe en ekstreem klink, maar dit dien tog as rede om versigtig te wees. Aan die ander kant moet ons ook besef dat KI-gegronde stelsels ongelooflike voordele vir die mensdom kan inhou as die tegnologie sinvol beheer en bestuur word.

KI en menseregte

Dit lyk dus logies dat daar dadelik ernstige aandag gegee moet word aan die oorsig van die ontwikkeling op die gebied van KI om katastrofes in die jare wat kom, te verhoed.

As navorsers en ontwikkelaars toegelaat word om onbeheers voort te gaan en KI-stelsels te ontwikkel, kan ons resultate kry wat nie tot die voordeel van die mensdom en ons fundamentele menseregte sal wees nie. In pas met die meer ekstreme scenario’s wat al oor KI geskets is, het daar oor die jare heen algaande meer waarskuwings van navorsers en wetenskaplikes opgeklink oor die risiko van ’n totale gebrek aan beheer oor sulke ontwikkelings.

Oorsig en regulering is dus nodig.

KI-gegronde tegnologie het, soos enige ander tegnologie, voordele en nadele. Ons moenie die baba met die badwater uitgooi deur die oorbeklemtoning van die nadele nie, maar verseker dat ontwikkelings so beheer en bestuur word dat die voordele beklemtoon en uitgebou word.

Dit is om dié rede dat die Europese Unie (EU) in April vanjaar ’n raamwerk gepubliseer het om navorsing en ontwikkeling op die gebied van KI in die toekoms te help bestuur.

Die grondslag van die raamwerk is dat risiko’s verbonde aan verskillende soorte KI-gegronde stelsels geëvalueer word en die stelsels dan in vier verskillende risikokategorieë geklassifiseer word. Die kategorieë wissel van onaanvaarbare tot minimale risiko’s.

Vier kategorieë

In die eerste kategorie – onaanvaarbare risiko’s – word sekere soorte KI-gegronde stelsels verbied omdat dit fundamentele menseregte kan aantas.

’n Voorbeeld daarvan is die ongereguleerde gebruik van biometriese identifikasiestelsels. ’n Voorbeeld van so ’n stelsel is wanneer foto’s in openbare plekke geneem word deur allerhande onbemande kameras sonder die wete van die betrokke mense en waar die foto’s dan – óf in reële tyd óf daarna – deur ’n KI-stelsel ondersoek word om spesifieke individue te probeer identifiseer.

Dit kan ook behels dat sulke foto’s op groot byeenkomste, soos ’n rugbywedstryd, geneem word en dan in reële­ tyd verwerk word om te bepaal of ’n spesifieke persoon teenwoordig is. Dit het veral betrekking op poli­siëring. Hierdie soort stelsels mag nie in die EU ontwikkel of gebruik word nie.

Die tweede kategorie – hoë risiko – is KI-stelsels wat menseregte of mense se veiligheid aantas, maar nie noodwendig in die eerste kategorie val nie. Sulke stelsels moet aan baie streng vereistes voldoen sover dit die ontwikkeling, toetsing en inwerkingstelling daarvan betref.

Voorbeelde sluit in:

  • Alle stelsels waar KI gebruik word in die bestuur van kritieke infrastruktuur, soos die voorsiening van water, gas en elektrisiteit, waar mense se veiligheid ter sprake kan kom;
  • Alle stelsels wat KI gebruik om te bepaal of mense toegang kan verkry tot opvoedkundige instellings; en
  • Alle stelsels wat biometries-gegronde klassifiserings van mense doen – dit wil sê ’n vorm van pro­fielskepping van mense op grond van foto’s. Dit grens aan die soort stelsels wat in die eerste kategorie genoem is, maar “minder indringend” is.

Die derde kategorie behels stelsels met beperkte risiko. Dit sluit KI-gegronde stelsels in waar deursigtigheid aan die gebruiker verskaf moet word.

’n Voorbeeld is die groeiende aantal geselsrobotte wat maatskappye op hul webwerf begin gebruik om ’n gebruiker met ’n probleem (of diag­nose) te probeer help. Die gebruiker moet duidelik ingelig word dat die gesprek met ’n rekenaar is en nie met ’n mens nie.

Die vierde en laaste kategorie is vir stelsels met minimale risiko. Dit sluit in KI-gegronde stelsels wat in videospeletjies gebruik word of wat vertaling tussen verskillende tale moontlik maak.

Uiteraard is dit onbekend wat die impak van die raamwerk gaan wees, maar dat dit die begin is van ’n soort beheer en toesig oor ’n gebied in die tegnologie wat ernstige probleme vir die mens kan inhou, moet verwelkom word.

Prof. Von Solms is die direkteur van die sentrum vir kuberveiligheid aan die Universiteit van Johannesburg.

Meer oor:  Rekenaar  |  Tegnologie
MyStem: Het jy meer op die hart?

Stuur jou mening van 300 woorde of minder na MyStem@netwerk24.com en ons sal dit vir publikasie oorweeg. Onthou om jou naam en van, ‘n kop-en-skouers foto en jou dorp of stad in te sluit.

Ons kommentaarbeleid

Netwerk24 ondersteun ’n intelligente, oop gesprek en waardeer sinvolle bydraes deur ons lesers. Lewer hier kommentaar wat relevant is tot die onderwerp van die artikel. Jou mening is vir ons belangrik en kan verdere menings of ondersoeke stimuleer. Geldige kritiek en meningsverskille is aanvaarbaar, maar dit is nie 'n platform vir haatspraak of persoonlike aanvalle nie. Kommentaar wat irrelevant, onnodig aggressief of beledigend is, sal verwyder word. Lees ons volledige kommentaarbeleid hier.

Stemme

Hallo, jy moet ingeteken wees of registreer om artikels te lees.