- Registriert
- 22. November 2005
- Beiträge
- 19.539
ich komm einfach auf kein plausibles szenario, in dem wir "alle gefickt" sind.
https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence
https://en.wikipedia.org/wiki/Global_catastrophic_riskInstitutions such as the Machine Intelligence Research Institute, the Future of Humanity Institute,[98][99] the Future of Life Institute, the Centre for the Study of Existential Risk, and the Center for Human-Compatible AI[100] are currently involved in mitigating existential risk from advanced artificial intelligence, for example by research into friendly artificial intelligence.[5][80][25]
Potential global catastrophic risks include anthropogenic risks, caused by humans (technology, governance, climate change), and natural or external risks.[3] Examples of technology risks are hostile artificial intelligence and destructive biotechnology or nanotechnology.
klar, alles viel science-fiction, aber bin mit meiner sorge da nicht ganz alleine. ich sag ja das wird alles ganz banal ablaufen. irgendwann steht dem paketsortierroboter der von einem quantensupercomputer gesteuert wird, ein mensch beim beladen der autonom fahrenden lieferwägen im weg und der supercomputer berechnet, daß pakete 37% schneller bearbeitet werden, wenn keine menschen im weg rumstehen und das wars dann mit unserer zivilisation.
aber die pakete kommen dann immer exakt um 8 uhr früh an.