Någon rädd för Singulariteten?

Jag stötte på begreppet Singularitet för något år sedan. Vad menas med Singularitet? Jo:

Let an ultra-intelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultra-intelligent machine could design even better machines; there would then unquestionably be an ‘intelligence explosion,’ and the intelligence of man would be left far behind.

Smaka på innebörden av detta! Någon gång i framtiden blir datorer så smarta att de kan ta över designen av sig själva, så att deras intelligens accelererar ifrån oss människor. Vad sker då? Tydligen finns det en konferens för just detta, kallad The Singularity Summit. Den författare jag läst som ger mest insikt över detta område är Charles Stross. Jag kan varmt rekommendera hans bok Accelerando, som handlar om precis detta. Boken är emellanåt svårläst, men så full av ideer att man bör spänna fast säkerhetsbältet innan man börjar läsa. Det var exempelvis i den boken jag först stötte på begreppet Matrioshka Brain.

A matrioshka brain is a hypothetical megastructure, based on the Dyson sphere, of immense computational capacity. It is an example of a Class B stellar engine, employing the entire energy output of a star to drive computer systems.

The idea of the matrioshka brain violates none of the currently known laws of physics, although the engineering details of building such a structure would be staggering, as such a project would require the "disassembly" of significant portions (if not all) of the planetary system of the star for construction materials.

Om inte det begreppet ger en hisnande känsla så är man helt oemottaglig för hard core science fiction!

Stross är annars en vansinnigt cool snubbe. Han är utbildad apotekare, har forskat i computer science, har skrivit artiklar om Perl och Linux, har en väldigt intressant blog. Och skickar man honom email så svarar han!

2 responses on “Någon rädd för Singulariteten?

  1. Fast ingen människa borde rimligen kunna konstruera en dator som är mer intelligent än henne själv, per definition. Därför behöver vi inte vara rädda för singulariteten.

  2. Jag förstår inte riktigt resonemanget! Människan har ju redan idag konstruerat datorer som multiplicerar snabbare än människor. Varför skulle det vara annorlunda när det gäller intelligens?

Leave a Reply to Mats Henricson Cancel reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.