4 maart 2024
0 Reactie(s)

4 maart 2024

Oproep tot registratie en controle van highend AI chips

In een recent rapport van de Univer­si­teit van Cambridge wordt gepleit voor het reguleren van de uitle­ve­ring van highend AI-chips. Het gaat onder meer om een voorstel om deze chips te taggen en te registreren, wat impli­ca­ties kan hebben voor de werking en toegan­ke­lijk­heid van datacen­ters wereld­wijd. Het rapport, getiteld “Compu­ting Power and the Gover­nance of Artifi­cial Intel­li­gence”, benadrukt de noodzaak van een betere controle op de hardware die ten grond­slag ligt aan de snelle vooruit­gang in de kunst­ma­tige intel­li­gentie (AI).

Een van de voorge­stelde maatre­gelen omvat de invoe­ring van zogeheten ‘compute caps’, die de inter­con­nec­ti­vi­teit tussen AI-chips beperken, en het verspreiden van een ‘switch’ voor AI-training over meerdere partijen. Dit zou een soort digitaal veto mogelijk maken voor risico­volle AI-toepas­singen voordat deze toegang krijgen tot bepaalde data. 

Deze voorstellen zijn gericht op het bieden van een effici­ënter kader voor gover­nance en veilig­heid rond AI door de focus te leggen op AI-chips, die door de opstel­lers van het rapport als meer effec­tieve doelwitten worden beschouwd dan data en AI-frame­works. De reden hiervoor is dat deze fysiek te detec­teren zijn, toegang tot bepaalde datasets ontzegd kan worden en boven­dien kwanti­fi­ceer­baar zijn. Boven­dien worden AI-chips gepro­du­ceerd in een goed te identi­fi­ceren en te volgen toeleveringsketen.

De impli­ca­ties van dit rapport strekken zich uit over de gehele sector, van chipont­wer­pers en ‑produ­centen zoals Nvidia, ARM, Intel, AMD, en SiPearl tot aan ongeveer tachtig AI-chip startups wereld­wijd. Het rapport is het resul­taat van het werk van 19 AI-onder­zoe­kers, geleid door drie insti­tuten van de Univer­si­teit van Cambridge — het Lever­hulme Centre for the Future of Intel­li­gence (LCFI), het Centre for the Study of Existen­tial Risk (CSER) en het Bennett Insti­tute for Public Policy — in samen­wer­king met OpenAI en het Centre for the Gover­nance of AI.

Haydn Belfield, een van de co-leidende auteurs van het rapport en verbonden aan Cambridge’s LCFI, benadrukt in een bericht de noodzaak van zogeheten upstream regule­ring van AI. Dit gezien de gigan­ti­sche stappen die AI de afgelopen tien jaar heeft gemaakt en die groten­deels mogelijk is gemaakt door de toename van reken­kracht voor het trainen van algoritmen. De voorge­stelde beleids­maat­re­gelen zijn onder­ver­deeld in drie catego­rieën: het vergroten van de wereld­wijde zicht­baar­heid van AI-compu­ting, het toewijzen van reken­bronnen voor het grootste maatschap­pe­lijke voordeel, en het opleggen van beper­kingen aan de rekenkracht.

Een opmer­ke­lijk voorstel is een inter­na­ti­o­naal AI-chip register waarin chippro­du­centen, verko­pers en weder­ver­ko­pers alle overdrachten moeten rappor­teren. Dit zou precieze infor­matie opleveren over de hoeveel­heid reken­kracht die op elk moment in bezit is van naties en bedrijven. Daarnaast wordt gesug­ge­reerd dat elke chip een unieke identi­fi­catie zou moeten krijgen om industriële spionage en chip-smokkel te voorkomen.

Deze voorstellen zouden niet alleen een grotere toegang tot datacen­ters vereisen voor registratie en audits, maar kunnen ook leiden tot fysieke en techno­lo­gi­sche aanpas­singen in het ontwerp en de productie van AI-chips. De auteurs van het rapport erkennen dat hun beleids­sug­ges­ties verken­nend zijn en ook de nodige nadelen kennen. Toch benadrukken zij de urgentie van het reguleren van AI. Zij maken zich grote zorgen dat highend AI-chips in de spreek­woor­de­lijke verkeerde handen vallen en gebruikt worden voor niet op AI gerichte toepassingen.

Foto: Steve Johnson

Redactie@DCpedia

Redactie@DCpedia

0 Reactie(s)

Loading

0 Reactie(s)

0 reacties

Reacties gesloten

De reactiemogelijkheid is verlopen. (14 dagen)

Nieuwsbrief

Huidige abonnees: 35

Pin It on Pinterest

Share This