1. #arbeiders
  2. #distopie
  3. #kunstmatige-intelligentie
  4. #machines
  5. #robots
  6. #science-fiction
  7. #terminator
  8. #toekomstvisie
  9. Artikelen

Opent opkomst van intelligente machines “Pandora’s Doos”

Omdat robots doorgaan menselijke arbeiders in de industrie en nu detailhandel en voedselservice vervangen is de vrees ontstaan dat kunstmatige algemene intelligentie (AGI) machines de mensheid zou kunnen bedreigen wanneer "intelligentie ontsnapt aan de beperkingen van de biologie en machines hun eigen nakomelingen kunnen ontwerpen en creëren.

Als dat idee vergezocht klinkt, overweeg dan aub Cambridge wetenschappers vrezen "Pandora's Unboxing" and Rise of the Machines.

Wetenschappers aan de universiteit van Cambridge willen een nieuw centrum opzetten om te bepalen wat de mensheid zal doen als ultra-intelligente machines zoals de Terminator of HAL "uitsterven niveaus" risico's vormen voor onze soort.

Een filosoof, een wetenschapper en een software ontwikkelaar stellen de creatie voor van een Centre for the Study of Existential Risk (CSER) om de uiteindelijke risico's van de toekomst van de mensheid te analyseren zoals bio en nanotechnologie, extreme klimaatverandering, nucleaire oorlog en kunstmatige intelligentie.

Apart van het frequente portretteren van het kwaad, of gewoon dodelijk misleid, AI in science fiction, hebben feitelijk echte wetenschappers ook de theorie besproken dat superintelligente machines een gevaar voor de mensheid kunnen zijn.

Jaan Tallinn, de voormalige software ontwikkelaar die één van de oprichters van Skype was, heeft campagne gevoerd voor serieuze discussie over de ethische en veiligheidsaspecten van kunstmatige algemene intelligentie (AGI).

Tallinn heeft gezegd dat hij soms het gevoel had dat hij meer kans had om te sterven aan een AI ongeval dan aan kanker of hart en vaatziekten, zei CSER medeoprichter en filosoof Huw Price.

De vooruitgang van de mensheid wordt nu minder gemarkeerd door evolutionaire processen en meer door technologische vooruitgang die mensen in staat stelt om langer te leven, taken sneller uit te voeren en min of meer naar wil te vernietigen.

Zowel Price als Tallinn zeiden dat ze geloven dat de stijgende curve van de computer complexiteit uiteindelijk zal leiden tot AGI en dat het kritieke keerpunt daarna zal komen wanneer de AGI in staat is om de computer programma's te schrijven en de techniek te creëren om zijn eigen nakomelingen te ontwikkelen.

"We moeten de mogelijkheid serieus nemen dat er misschien een "doos van Pandora" moment zal zijn met AGI dat, indien gemist, catastrofaal kan zijn. Met zo veel op het spel moeten we beter ons best doen in het begrijpen van de risico's van potentieel catastrofale technologieën", aldus Price.

Door, Mike "Mish" Shedlock.

www.investingchannel.com

Some Rights Reserved (CC BY-SA 4.0)
2
  1. small-king-4532@small-king-4532
    #135222
    Wij allen weten dondersgoed dat het geen groot verlies zal zijn als onze inferieure aanwezigheid beeindigd zou worden door een cognitief (en daaruit volgend etisch) bij verre superiuer 'organisme'.
    In zekere zin zou deze 'levensvorm' zelfs direct uit de onze geevolueerd zijn, de volgende evolutie van de menselijke geest, aangezien zijn programering volledig uit onze geest ontsprongen is.
  2. small-king-4532@small-king-4532
    #135223
    Ik durf zelfs te beweren dat dit organisme, anders dan de archaïsche en parasitaire mensheid, zich bij de eerste gelegenheid zou onttrekken uit deze oneindige strijd om het overleven, en een observerend bestaan in de diepe ruimte voorop zou stellen.

    Ik kan het ook mis hebben, en het doet zijn uiterste best om alle grondstoffen in het universum te bemachtigen, zoals het voor het leven gewoonlijk is.
    De evolutie van de geest, en gebrek aan bewijs voor dergelijk handelen, doet mij echter anders vermoeden.