Neues Fairphone verfügbar – new Fairphone available

Fairphones so fair wie möglich produziertes Fairphone kann ab sofort hier bestellt werden. Es sind um 11:41 Uhr bereits mehr als 6000 Bestellungen eingegangen, ab 15000 startet die Produktion. Featureliste hier.

Fairphone v2 ist there. The Smartphone produced as fair as possible today can be pre-ordered here Already 6000 pre-ordered. production starts at 15000. Featurelist here.

Open letter -sign: KI community wants to ban AI weapons! Offener Brief – unterschreiben! KI-Gemeinde will Bann für AI-Waffen

Eines der seltenen Zeichen von Vernunft und Humanität aus der KI-Gemeinde, derzeit vor allen Dingen durch ihr Schwadronieren über die demnächst zu erwartende „Singularität“ und Big Data im Gespräch, ist jetzt von seiten diverser Teilnehmer der KI-Konferenz IJCAI in Buenos Aires sowie weiterer Unterzeichner zu vernehmen. Diverse Forscher schrieben einen Offenen Brief, den ich hier frei übersetzt wiedergebe:

„Autonome Waffen wählen und peilen Ziele ohne menschliche Eingriffe an. Dazu gehören beispielsweise bewaffnete Quadcopter, die vorher nach bestimmten Kriterien definierte menschliche Ziele suchen und eliminieren, nicht aber Cruise Missiles oder aus dem Hintergrund von menschlichen Piloten gesteuerte Drohnen, bei denen Menschen alle Zielentscheidungen treffen. Künstliche Intelligenz hat einen Punkt erreich, an dem die Entwicklung solcher Systeme – praktisch, wenn nicht sogar rechtlich – innerhalb weniger Jahre, nicht Jahrzehnte machbar ist. Es steht viel auf dem Spiel: Autonome Waffen wurden bereits als die dritte Revolution der Kriegsführung nach dem Schießpulver und Nuklearwaffen bezeichnet.
Es wurden bereits zahlreiche Argumente für und gegen autonome Waffen diskutiert. Eins lautet zum Beispiel dass der Ersatz menschlicher Soldaten durch Maschinen die Zahl der Verletzten in der sie besitzenden Partei reduziert, dadurch aber die Schwelle für einen Kriegseintritt herabsetzt. Eine Schlüsselfrage der Menschheit heute, ob man in ein weltweites Wettrennen um AI-Waffen einsteigen will oder bereits den Beginn eines solchen Wettrüstens verhindern möchte. Sollte irgendeine militärische Macht die Entwicklung von AI-Waffen forcieren, ist ein globaler Rüstungswettlauf nahezu unvermeidbar. Das Ende dieser technologischen Entwicklungslinie ist absehbar: autonome Waffen werden die Kalashnikovs von morgen. Anders als nukleare Waffen braucht man für sie keine kostspieligen oder schwer erhältlichen Rohstoffe. Sie werden sich also weltweit verbreiten. Wichtige militärische Mächte werden sie billig produzieren können. Es wird nur eine Frage der Zeit sein, bis sie auf dem Schwarzmarkt gehandelt werden und in die Hände von Terroristen geraten, von Diktatoren, die ihre Bevölkerung besser kontrollieren wollen, von Kriegsherren, die damit Völkermord begehen wollen und so weiter. Autonome Waffen sind ideal für Mordanschläge, zur Destabilisierung ganzer Nationen, zur Unterdrückung der Bevölkerung und zur selektiven Ausrottung spezieller Bevölkerungsgruppen. Wir glauben deshalb, dass ein militärisches AI-Wettrüsten der Menschheit nicht dienlich wäre. Es gibt viele Möglichkeiten, wie künstliche Intelligenz Schlachtfelder sicher für Menschen, speziell Zivilisten machen kann, ohne neue Werkzeuge für das Morden von Menschen zu erschaffen.
So wie die meisten Chemiker kein Interesse haben, chemische oder biologische Waffen zu entwickeln, interessieren sich die meisten AI-Forscher nicht dafür, AI-Waffen zu bauen – und wünschen sich, andere würden ihr Forschungsfeld nicht dadurch diskreditieren, dass sie es tun und dadurch das Risiko eingehen, die öffentliche Meinung zu AI gravierend negativ zu beeinflussen und so die potentiell positiven Effekte von AI an der Entfaltung hindern. Tatsächlich haben sehr viele Chemiker und Biologen internationale Vereinbarungen unterstützt, die erfolgreich chemische und biologische Waffen verboten haben, genauso wie die meisten Physiker die Verträge unterstützten, die nukleare Weltraumwaffen und blendende Laserwaffen verbieten.
Insgesamt glauben wir, dass AI ein großes Potential hat, der Menschheit auf vielfältige Weise zu nutzen. Das Ziel dieses Forschungsfeldes sollte sein, genau dies zu tun. Ein militärisches AI-Wettrüsten ist eine schlechte Idee und sollte durch ein Verbot offensiver autonomer Waffen ohne sinnvolle menschliche Steuerungsmöglichkeiten verhindert werden.“

Kommentar:Der Brief verdient es unterzeichnet zu werden, obwohl es keine AI-Kriegswerkzeuge gibt, die unterschiedslos zivile Opfer unterstützten. Von den Tools werden nur diejenigen zivilen Opfer unterstützt oder geschützt, die mit den Inhabern der Waffen alliiert sind, „Feinde“ und deren potentielle zivile Unterstützer profitieren nicht. Unglücklicherweise sind viele IT-Firmen aller Größenordnungen eng in Geschäfte mit Regierungen und deren Militärapparaten verstrickt. Dadurch wird es sehr schwer werden, die Machthaber der Welt, besonders USA, Russland und China, die beide über große AI-Entwicklungsressourcen verfügen, von einem Bann der AI-Waffen zu überzeugen. Man denke nur daran, dass die gesamte NSA-Infrastruktur letzten Endes aus IT besteht, die von diesen Firmen geliefert wurde. Außerdem kann man sehr wohl daran zweifeln, dass wir AI-Big-Data-Technologien brauchen, die uns permanent zum Ziel personalisierter Werbung machen oder das Prinzip des Lastenausgleichs in Versicherungen aushebeln, indem Risiken aufgrund des Verhaltens jedes einzelnen Individuums kalkuliert werden. Nichtsdestotrotz: ich werde signieren und bitte darum, dass der Offene Brief weiter verbreitet wird!

Commentary:This letter deserves to be signed, although there is no such thing as an AI war tool that helps civil victims – at least, if it helps victims, it is mostly the victims of the allies of the owners of the AI weapons that are helped, enemies and civiians associated with them mostly are not helped and supported. Unfortunately, IT companies of all sizes are very often deeply entangled in government and Military Research which will make it very difficult to make the World and especially US, Russia and China who have strong AI development resources ban AI weapons. Only think about the fact that the whole NSA infrastructure is in a way IT. Also, one may very well doubt if we Need AI-Big-Data-Technologies which make us a constant target of Advertising or which disenable the principle of mutual Support in health and other insurances based on the behavior of the each individual. Nevertheless, I will sign that letter and wish more people would do so. So, spread the word.

Warum IT-Equipment noch nicht nachhaltig produziert wird

Wer sich fragt, ob und wann IT-Equipment einmal nachhaltig produziert wird und warum das heute noch nicht der Fall ist, findet aktuelle Antworten in iX 7/2015. Dort schreibt nachhaltige-it-Chefredakteurin Ariane Rüdiger unter anderem über cradle to cradle in der IT, modulare Smartphones, TCO-Zertifizierungen und was sie heute noch nicht erreichen etc. Wer nicht so viel zeit hat, die gesamte iX zu lesen, kann bei Heise hier auch den einzelnen Artikel für 3,50 Euro kaufen.