Witold Kepinski - 30 maart 2023

Tech kopstukken: Pauzeer gigantische AI-experimenten

'Pauzeer gigantische AI-experimenten': Dit staat in een open brief van onder andere Elon Musk en Apple medeoprichter Steve Wozniak. "We roepen alle AI-labs op om per direct minimaal 6 maanden te pauzeren met het trainen van AI-systemen die krachtiger zijn dan GPT-4."

Tech kopstukken: Pauzeer gigantische AI-experimenten image

De brief meldt het volgende:

AI-systemen met mens-concurrerende intelligentie kunnen grote risico's vormen voor de samenleving en de mensheid, zoals blijkt uit uitgebreid onderzoek [1] en erkend door vooraanstaande AI-laboratoria. [2] Zoals vermeld in de alom onderschreven Asilomar AI-principes , zou geavanceerde AI een ingrijpende verandering in de geschiedenis van het leven op aarde kunnen betekenen, en moet worden gepland en beheerd met evenredige zorg en middelen . Helaas gebeurt dit niveau van planning en beheer niet, ook al hebben AI-labs de afgelopen maanden een uit de hand gelopen race gezien om steeds krachtigere digitale geesten te ontwikkelen en in te zetten die niemand - zelfs hun makers niet - kan begrijpen. voorspellen of betrouwbaar beheersen.

Hedendaagse AI-systemen worden nu mens-concurrerend bij algemene taken, [3] en we moeten ons afvragen: moeten we machines onze informatiekanalen laten overspoelen met propaganda en onwaarheid? Moeten we alle banen automatiseren, inclusief de vervullende? Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk in aantal kunnen overtreffen, te slim af zijn, achterhaald zijn en ons kunnen vervangen? Moeten we het risico lopen de controle over onze beschaving te verliezen? Dergelijke beslissingen mogen niet worden gedelegeerd aan niet-gekozen technologieleiders. Krachtige AI-systemen mogen pas worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en dat hun risico's beheersbaar zullen zijn.Dit vertrouwen moet goed gerechtvaardigd zijn en toenemen met de omvang van de potentiële effecten van een systeem. OpenAI's recente verklaring met betrekking tot kunstmatige algemene intelligentie stelt dat"Op een gegeven moment kan het belangrijk zijn om onafhankelijke beoordeling te krijgen voordat we beginnen met het trainen van toekomstige systemen, en voor de meest geavanceerde inspanningen om overeen te komen om de groeisnelheid van de rekenkracht die wordt gebruikt voor het maken van nieuwe modellen te beperken." Wij zijn het eens. Dat punt is nu.

Daarom roepen we alle AI-labs op om per direct minimaal 6 maanden te pauzeren met het trainen van AI-systemen die krachtiger zijn dan GPT-4 . Deze pauze moet openbaar en verifieerbaar zijn en alle belangrijke actoren omvatten. Als zo'n pauze niet snel kan worden ingevoerd, moeten regeringen ingrijpen en een moratorium instellen.

AI-laboratoria en onafhankelijke experts zouden deze pauze moeten gebruiken om gezamenlijk een reeks gedeelde veiligheidsprotocollen te ontwikkelen en te implementeren voor geavanceerd AI-ontwerp en -ontwikkeling die streng worden gecontroleerd en gecontroleerd door onafhankelijke externe experts. Deze protocollen moeten ervoor zorgen dat systemen die zich eraan houden zonder enige twijfel veilig zijn. [4] Dit betekent geen pauze in de ontwikkeling van AI in het algemeen, maar slechts een stap terug van de gevaarlijke race naar steeds grotere, onvoorspelbare black-box-modellen met opkomende mogelijkheden.

AI-onderzoek en -ontwikkeling moeten opnieuw worden gericht op het nauwkeuriger, veiliger, interpreteerbaar, transparant, robuust, afgestemd, betrouwbaar en loyaal maken van de krachtige, geavanceerde systemen van vandaag.

Tegelijkertijd moeten AI-ontwikkelaars samenwerken met beleidsmakers om de ontwikkeling van robuuste AI-governancesystemen drastisch te versnellen. Deze moeten ten minste het volgende omvatten: nieuwe en capabele regelgevende instanties die zich toeleggen op AI; toezicht houden op en volgen van zeer capabele AI-systemen en grote pools van rekencapaciteit; herkomst- en watermerksystemen om echt van synthetisch te onderscheiden en modellekken op te sporen; een robuust audit- en certificeringsecosysteem; aansprakelijkheid voor door AI veroorzaakte schade; robuuste overheidsfinanciering voor technisch AI-veiligheidsonderzoek; en goed toegeruste instellingen om het hoofd te bieden aan de dramatische economische en politieke ontwrichtingen (vooral voor de democratie) die AI zal veroorzaken.

De mensheid kan genieten van een bloeiende toekomst met AI. Nu we erin geslaagd zijn om krachtige AI-systemen te creëren, kunnen we nu genieten van een "AI-zomer" waarin we de vruchten plukken, deze systemen ontwikkelen in het voordeel van iedereen en de samenleving de kans geven zich aan te passen. De samenleving heeft andere technologieën stilgelegd met mogelijk catastrofale gevolgen voor de samenleving. [5] Dat kunnen we hier doen. Laten we genieten van een lange AI-zomer, niet onvoorbereid de herfst in.

Aantekeningen en referenties:

[1]

Bender, EM, Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, maart). Over de gevaren van stochastische papegaaien: kunnen taalmodellen te groot zijn? In Proceedings van de ACM-conferentie van 2021 over billijkheid, verantwoording en transparantie (pp. 610-623).

Bostrom, N. (2016). Superintelligentie. Oxford Universiteit krant.

Bucknall, BS, & Dori-Hacohen, S. (2022, juli). Huidige AI en AI op korte termijn als potentiële existentiële risicofactor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is machtszoekende AI een existentieel risico? . arXiv voordruk arXiv:2206.13353.

Christian, B. (2020). Het afstemmingsprobleem: machinaal leren en menselijke waarden. Norton & Bedrijf.

Cohen, M. et al. (2022). Geavanceerde kunstmatige agenten komen tussenbeide bij het verstrekken van beloningen. AI Magazine , 43 (3) (pp. 282-293).

Eloundou, T., et al. (2023). GPT's zijn GPT's: een vroege blik op het potentieel voor impact op de arbeidsmarkt van grote taalmodellen.

Hendrycks, D., & Mazeika, M. (2022). X-risicoanalyse voor AI-onderzoek . arXiv voordruk arXiv:2206.05862.

Ngo, R. (2022). Het afstemmingsprobleem vanuit een deep learning-perspectief. arXiv voordruk arXiv:2209.00626.

Russell, S. (2019). Menselijk compatibel: kunstmatige intelligentie en het controleprobleem. Viking.

Tegmark, M. (2017). Life 3.0: Mens zijn in het tijdperk van kunstmatige intelligentie. Knopf.

Weidinger, L. et al (2021). Ethische en sociale risico's van schade door taalmodellen. arXiv voordruk arXiv:2112.04359.

[2]

Ordonez, V. et al. (2023, 16 maart). OpenAI-CEO Sam Altman zegt dat AI de samenleving zal hervormen , erkent risico's: 'Ik ben hier een beetje bang voor' ABC nieuws.

Perrigo, B. (2023, 12 januari). DeepMind CEO Demis Hassabi dringt aan op voorzichtigheid met AI Angst.

[3]

Bubeck, S. et al. (2023). Vonken van kunstmatige algemene intelligentie: vroege experimenten met GPT-4 . arXiv:2303.12712.

OpenAI (2023). GPT-4 technisch rapport . arXiv:2303.08774.

[4]

Er bestaat voldoende juridisch precedent – de algemeen aanvaarde AI-beginselen van de OESO vereisen bijvoorbeeld dat AI-systemen "naar behoren functioneren en geen onredelijk veiligheidsrisico vormen".

[5]

Voorbeelden zijn onder meer het klonen van mensen, modificatie van de menselijke kiembaan, onderzoek naar functiewinst en eugenetica.