Liebe Kolleginnen und Kollegen,
soeben erreicht uns als Gewerkschafter/Innen-Arbeitskreis (AK) das jüngste Info-Potpourri des Kollegen Wolfgang Erbe (http://www.ak-gewerkschafter.de/?s=wolfgang+erbe). Darin sind folgende Themen enthalten:
„Bank Santander streicht in Deutschland rund 600 Stellen!“
„Künstliche Intelligenz als fundamentale Bedrohung der Existenz menschlicher Zivilisation!“
„The US government seriously wants to weaponize artificial intelligence (= Die US-Regierung will tatsächlich Waffen mit künstlicher Intelligenz einsetzen!)”
Wir haben das umfangreiche Info-Potpourri aufgrund seiner Wichtigkeit in ungekürzter Fassung nachstehend zu Eurer gefälligen Kenntnisnahme auf unsere Homepage gepostet.
Für den AK Manni Engelhardt –Koordinator-
*******************************************************
Kollege Wolfgang Erbe informiert:
Bank Santander streicht in Deutschland rund 100 Filialen und 600 Stellen
20.37 Uhr: Der spanische http://www.focus.de/orte/spanien/ Bankkonzern Santander will in Deutschland rund 100 Filialen schließen. Die hierzulande bisher getrennten Vertriebsnetze der Santander Consumer Bank und der Santander Bank sollen zusammengelegt werden, bestätigte eine Sprecherin der Santander Consumer Bank AG am Freitagabend in Mönchengladbach. Im Zuge dieser Vereinheitlichung werde die Zahl der bundesweit bisher mehr als 300 Filialen um rund 100 reduziert.
+++ Wirtschafts-News +++Bank Santander streicht in Deutschland rund 100 Filialen und 600 Stellen
Wirtschafts-News: Bank Santander streicht in Deutschland rund 600 Stellen http://www.focus.de/finanzen/boerse/wirtschafts-news-amazon-ueberrascht-mit-gewinneinbruch-aktie-gibt-nach_id_7407913.html
Bank Santander streicht in Deutschland rund 100 Filialen und 600 Stellen
20.37 Uhr: Der spanische http://www.focus.de/orte/spanien/ Bankkonzern Santander will in Deutschland rund 100 Filialen schließen. Die hierzulande bisher getrennten Vertriebsnetze der Santander Consumer Bank und der Santander Bank sollen zusammengelegt werden, bestätigte eine Sprecherin der Santander Consumer Bank AG am Freitagabend in Mönchengladbach. Im Zuge dieser Vereinheitlichung werde die Zahl der bundesweit bisher mehr als 300 Filialen um rund 100 reduziert.
Bank Santander streicht in Deutschland rund 600 Stellen + Künstliche Intelligenz als „fundamentale Bedrohung der Existenz menschlicher Zivilisation“ + The US government seriously wants to weaponize artificial intelligence
https://www.youtube.com/watch?v=N-71EnzU8m8
Künstliche Intelligenz als „fundamentale Bedrohung der Existenz menschlicher Zivilisation“
bezeichnet. Er selbst habe als CEO mehrerer Tech-Unternehmen Zugriff auf die aktuell besten AI-Technologien und könne das Risiko entsprechend einschätzen. „Ich läute und läute die Alarmglocke“, so Musk, „aber bevor die Leute Roboter sehen, die die Straße runterlaufen und Menschen töten, werden sie nicht wissen, wie sie darauf reagieren sollen.“ https://www.bizjournals.com/sanjose/news/2017/07/24/elon-musk-artificial-intelligence-risk-zuckerberg.html
Zuckerberg hob derweil die positiven Aspekte selbst denkender Computer hervor: „Autounfälle gehören immer noch zu den häufigsten Todesursachen von Menschen und wenn man dies mithilfe von AI ausschalten kann, ist das eine dramatische Verbesserung“.
„Wann immer ich Leute sagen höre, dass künstliche Intelligenz in Zukunft Menschen verletzen wird, denke ich, tja, weißt du, Technologie kann immer für gute oder böse Zwecke eingesetzt werden, und man muss vorsichtig damit sein, wie man sie baut, was man baut und wozu es genutzt wird“, zitiert ihn das „Silicon Valley Business Journal“. https://www.bizjournals.com/sanjose/news/2017/07/24/elon-musk-artificial-intelligence-risk-zuckerberg.html
Maschinen werden bald klüger sein als wir. Und dann?
Jaan Tallinn, 44, stammt aus Estland und entwickelte Skype, ein Programm für Videotelefonie im Internet. Inzwischen hält er Computer für eine potenzielle Bedrohung: Eines Tages, sagt Tallinn, könnte künstliche Intelligenz die Menschheit auslöschen. Einfach so, aus Versehen
Unser Problem ist nicht, was die Menschen schaffen, sondern was die Computer machen, wenn sie unserer Kontrolle entgleiten.
Was wären die Konsequenzen dieses Kontrollverlustes?
Stellen Sie sich vor, Sie würden eines Morgens als Maschine in einer Welt aufwachen, in der Sie Milliarden Male schneller sind als alles andere. Warum sollten Sie Hunderte Jahre warten, um eine Antwort von der Person neben Ihnen zu bekommen?
Um Sie herum sähe alles aus wie eingefrorene Statuen, eine wäre vielleicht ein Tisch, eine andere ein Mensch, das wäre für Sie kein Unterschied. Sie würden sich also wirklich nicht so viel um die Kommunikation mit diesen Statuen kümmern. Das sind für Sie dann nur Ressourcen von Atomen.
Sie würden sich nicht in diese Statue verlieben. Und eines Tages würden Sie, also die künstliche Intelligenz, beginnen, die Atmosphäre der Erde zu verändern.
Aber warum sollte die künstliche Intelligenz das tun. Sie braucht doch keinen Sauerstoff, um…
Aber warum sollte sie denn nicht? Eine der größten Fehlannahmen über die Zukunft der künstlichen Intelligenz ist, dass sie zerstörerisch sein wird und uns mit einer terminatorartigen Roboterarmee angreift. In Wahrheit werden wir Menschen den Maschinen vollkommen egal sein.
Wenn die Maschine also beschließt, dass sie Kohlenstoffatome benötigt oder dass sie im Vakuum besser funktioniert, beginnt sie mit „Terraforming“. Aus dieser Gleichgültigkeit der Maschinen gegenüber den Menschen entstehen die viel größeren Desaster.
Glauben Sie, Sie werden noch während Ihrer Lebenszeit erleben, wie Maschinen zu einer Gefahr für die Menschen werden?
Don’t let AI take our jobs (or kill us): Stephen Hawking and Elon Musk sign open letter warning of a robot uprising
* Letter says there is a ‚broad consensus‘ that AI is making good progress
* Areas benefiting from AI research include driverless cars and robot motion
* But in the short term, it warns AI may put millions of people out of work
* In the long term, robots could become far more intelligent than humans
* Elon Musk has previously linked the development of autonomous, thinking machines to ’summoning the demon‘
https://futureoflife.org/ai-open-letter
The US government seriously wants to weaponize artificial intelligence
https://qz.com/767648/weaponized-artificial-intelligence-us-military/
Military Lags in Exploiting Artificial Intelligence http://www.nationaldefensemagazine.org/articles/2017/2/6/military-lags-in-exploiting-artificial-intelligence
www.nationaldefensemagazine.org/articles/201…
With artificial intelligence you not only have machines that do things better than we can … Military Lags in Exploiting Artificial Intelligence. 2/6/2017 By Sandra I. Erwin … The board characterized artificial intelligence and machine learning as “important, … That is the real future here.” Computers can watch screens, but artificial intelligence
https://www.army.mil/article/190971/army_looking_at_new_ways_to_grow_cyber_capabilities
My Theory on the AI-Box Experiment
In a recent post titled Shut up and do the impossible! http://www.overcomingbias.com/2008/10/shut-up-and-do.html about how to tackle seemingly impossible problems, Eliezer Yudkowsky http://en.wikipedia.org/wiki/Eliezer_Yudkowsky made a reference to his AI-Box experiment http://www.yudkowsky.net/essays/aibox.html (if you’re not familiar with it, just follow the link for the whole story).
I’ve always been intrigued by how Eliezer did it, but the rules of the experiment prohibit him from revealing was transpired between him and the ‘gatekeeper’.
Still, one can always guess. Here’s my favorite theory so far (which I posted as a comment on Overcoming Bias http://www.overcomingbias.com/2008/10/shut-up-and-do.html#comment-133981877 ):
Here’s my theory on *this particular* AI-Box experiment: First you explain to the gatekeeper the potential dangers of AIs. General stuff about how large mind design space is, and how it’s really easy to screw up and destroy the world with AI. Then you try to convince him that the solution to that pr…
Update: Some commenters on YC News http://news.ycombinator.com/item?id=327427 have mentioned that they think this kind of meta-argument wouldn’t be used by Eliezer and would be ‘cheating’. Maybe they are right.
But knowing what Eliezer has been saying about thinking outside of the box, attacking problems from original angles and such, I think it’s a possiblity. It doesn’t seem prohibited by the rules, in any case, and I would assume that Eliezer cares more about any real-life progress for Friendly AI than about strict roleplaying in a simulation where only one other person will know what happened. Besides, my theory still requires convincing the other person that an AI could be very dangerous and that Friendly AI is crucial — it’s just that it’s done on a meta level. That’s still hard work!
Personally, I think this is the only thing that could make me give up my $10-20 in this experiment. The thought that my freeing of the AI could help real-world AI research take Friendly AI theory more seriously. Otherwise, imaginary cancer cures and imaginary source code wouldn’t cut it, I think.
But you never know…
http://www.au.af.mil/au/awc/awcgate/awc-lesn.htm
http://www.armyupress.army.mil/Online-Publications/New-Extended-Battlefield/
http://www.armyupress.army.mil/Online-Publications/New-Extended-Battlefield/News-and-Current-Events/
http://www.au.af.mil/au/awc/awcgate/awc-srch.htm
http://www.au.af.mil/au/awc/awcgate/dmso/glossary.pdf
https://de.scribd.com/document/22891280/Applications-of-Robotics-and-Artificial-Intelligence
http://aaai.org/Papers/IAAI/1995/IAAI95-002.pdf
http://aaai.org/Library/IAAI/1995/iaai95-002.php
https://berthoalain.com/author/berthoalain/
http://www.trend.infopartisan.net/inhalt.html
Wolfgang Erbe