God is a Blackbox

Where I come from, people believe in the good Lord. God is an algorithm that no one really understands. But people became accustomed to teaching their children, to behave as they suspect God likes it.

God probably doesn’t exist. Or at least not the way people imagine it where I come from. There are many other places, where there are people that imagine god. And the many different notions that don’t go together front and back. It would be an unlikely coincidence, that right where I come from,  people had the right perception.

Der Liebe Gott ist eine Black Box. Und dabei ist es ganz egal, wie sie funktioniert. Wichtig ist lediglich, dass sich alle, möglichst ähnlich verhalten um dem Lieben Gott oder irgend einer anderen Black Box zu gefallen.

God is a black box. And it doesn’t really matter how the black box works. The only important thing is that everyone behaves as similarly to please the Good Lord – or the black box.

Because that provides reliability. To the individual, because it feels good, and to everyone, because it makes everyone more predictable.


Excerpt from “Codonaut – Where do we program ourselves?”, a Korsakow film about artificial intelligence. The film can be seen here: codonaut.de

Blackbox Gott

Da, wo ich herkomme glaubt man an den Lieben Gott. Gott ist ein Algorithmus den so recht niemand versteht. Doch die Menschen haben sich angewöhnt, ihren Kindern beizubringen, sich so zu verhalten, wie sie vermuten, dass es dem Lieben Gott gefällt.

Vermutlich gibt es Gott nicht. Oder zumindest nicht so, wie man es sich da, wo ich herkomme, vorstellt. Denn es gibt auch noch viele andere Orte, an denen man sich einen Gott vorstellt. Die vielen verschiedenen Vorstellungen passen vorne und hinten nicht zusammen. Es wäre ein unwahrscheinlicher Zufall, wenn man ausgerechnet da, wo ich herkomme, die richtige Vorstellung hätte.

Der Liebe Gott ist nur eine Form einer Black Box. Und dabei ist es ganz egal, wie sie funktioniert. Wichtig ist lediglich, dass sich alle, möglichst ähnlich verhalten um dem Lieben Gott oder irgend einer anderen Black Box zu gefallen.

Denn das gibt Sicherheit. Dem einzelnen, weil er sich gut fühlt. Und allen, weil es alle berechenbarer macht.


Auszug aus “Codonaut – Wohin programmieren wir uns?”, einem Korsakow-Film über Künstliche Intelligenz. Der Film ist hier zu sehen: codonaut.de

Why the question ‘good or bad’ is bad

This text is also available in German.

Most of the time, when I weigh up arguments, when I think loud about things like how the real estate market is developing, people immediately ask me: “Is that good or bad?” It seems to be an incredibly interesting question whether something is good or bad. And then I think to myself: But if that’s such an important question, why do people ask me? People should ask someone who has a clue. It might be best to ask someone who knows how the future will have developed. Someone who looks at the present from the future, so to speak. I have no idea, I’m just thinking.

I consider and weigh up the arguments, precisely because I want to find out how things actually will develop. I can only imagine, I can’t really see the future, obviously, because I am in the present. So I am sitting in the present and think about how the real estate market will develop in the future. What I absolutely don’t want, is to distort the image that I can see of the future with my wishful thinking. So I try to take a look as neutral as possible. Not judging if something is good or bad.

Yes, sometimes I do have an opinion. I think the rents should be bla, because blaba. But if I wish for the future (“I think the rents should..”), then it is only probable that I arrange the arguments in such a way that the future that I wish for appears most probable. And even if I’m aware of the problem, it doesn’t help at all, because this shifting of the arguments is done by the unconsciousness by itself. There is nothing I can do about it.

That’s why scientists, when they want to find out something, conduct double-blind-experiments. It is proven that a researcher who has an opinion unconsciously influences the result. More than that: it doesn’t even matter whether the researcher has an opinion or a preference, the mere fact that the one who conducts the experiment, knows the result increases the probability that the result of the whole examination is wrong.

Once it was believed that a horse could calculate. Experts tested the horse for years. That was before the double-blind-experiment was known. If you have given the horse a calculation task, for example: How much is 3+9? Then the horse would scratch 12 times with his right hoof. But the horse could not calculate at all. The horse could only read the faces of the human experimenters well, and they were the ones who could calculate.

So if I want to know how the real estate market will develop in the future, then I don’t want to spoil the result with my opinion – that would be stupid!

So I try to have no opinion when thinking, when weighing up the arguments and just not to consider whether one or the other is good or bad.

And arguments usually work in a way that one argument builds on the other. It’s like a house of cards, where one card supports an other card and that way layers are build on which even more layers stand. Only that the cards are not cards, but arguments. And if that works well and you get a stable house of cards that you have glued together with a lot of good information (because only good information makes the glue that really holds) then you can finally stand on top of the construction and look into the distance and see the future.

This means that I want my information to be correct (as information is the glue that holds the arguments together) and I want my arguments to be correct, i.e. the cards that make up my tower. So I don’t want to manipulate a card consciously or unconsciously, pull it longer or shorter, because that would make my tower crooked and I would see some nonsense from its top, but not the future – if the tower holds at all and doesn’t collapse already because of the many crooked arguments.

That’s why, in any case, I don’t want to form an opinion when I think about something. And certainly not, after I have only considered the very first argument and have at most reached level one. I still want to put many more arguments, many more cards, many more levels on one another. Whether something is good or bad? So the question that most people ask right at the beginning – it can only be judged anyway if you stand on the finished tower and look down. When the tower has grown out of arguments. Only from there, i.e. from the top of the tower, can you really judge whether something is good or bad.

Translated with the help of www.DeepL.com/Translator

Warum die Frage ‘gut oder schlecht’ schlecht ist

There is also an English version of this text available.

Meist, wenn ich Argumente abwäge, wenn ich Überlegungen ausspreche, zum Beispiel darüber, wie sich der Immobilienmarkt entwickelt, dann fragen mich die Leute sofort: “Und ist, das nun gut, oder schlecht?”. Es scheint eine wahnsinnig interessante Frage zu sein, ob etwas gut ist, oder schlecht. Und dann denke ich mir: Aber wenn das so eine wichtige Frage ist, warum fragen die Leute dann mich? Die Leute sollten jemanden fragen, der Ahnung hat. Am besten also jemanden, der weiß, wie sich die Zukunft entwickelt haben wird. Also jemand, der quasi von der Zukunft aus, auf die Gegenwart schaut. Ich habe keine Ahnung, ich überlege doch bloss.

Ich überlege und wäge die Argumente ab, doch gerade weil ich herausbekommen will, wie sich die Dinge in Zukunft tatsächlich entwickeln werden. Weil ich in der Gegenwart hocke und wissen will, wie es in der Zukunft ausschaut. Das kann ich mir aber nur vorstellen, wirklich sehen kann ich es nicht, denn ich befinde mich ja in der Gegenwart, nicht in der Zukunft. Ich sitze also in der Gegenwart und überlege, wie sich der Immobilienmarkt in der Zukunft entwickelt. Und damit ich mir die Zukunft ja nicht schön oder hässlich sehe, versuche ich einen möglichst neutralen Blick, der möglichst nicht durcheinander kommen soll, von meinen Präferenzen und Wünschen.

Ja, manchmal habe ich auch eine Meinung. Ich finde die Mieten sollten bla, weil blaba. Aber, wenn ich mir die Zukunft wünsche (“Ich finde die Mieten sollten”), dann ist doch nur wahrscheinlich, dass ich die Argumente so anordne, dass die Zukunft am wahrscheinlichsten erscheint, die ich mir wünsche. Und auch, wenn ich mir des Problems bewusst bin, hilft das gar nichts, denn dieses hinschieben der Argumente macht das Unbewusstsein von alleine. Man kann nichts dagegen unternehmen.

Deshalb machen Wissenschaftler, wenn sie etwas herausbekommen wollen, Doppel-Blind-Versuche, weil bewiesen ist, dass ein Forscher, der das Ergebnis kennt, unbewusst das Ergebnis beeinflusst. Es ist dabei sogar egal, ob er eine Meinung hat, eine Präferenz, welches Ergebnis eintreten soll. Allein, dass der Wissenschaftler, also der, der die Untersuchung durchführt, das Ergebnis kennt, erhöht die Wahrscheinlichkeit, dass das Versuchsergebnis falsch ist.

Einmal hat man geglaubt, dass ein Gaul rechnen kann. Experten haben das Pferd jahrelang getestet. Das war, bevor man den Doppel-Blind-Versuch kannte. Wenn man dem Gaul eine Rechenaufgaben gegeben hat: Zum Beispiel: Wieviel ist 3+9? Dann sollte der Gaul 12 mal mit dem rechten Huf scharren. Doch der Gaul konnte gar nicht rechen. Der Gaul konnte nur gut die Gesichter der menschlichen Versuchsleiter lesen, und die waren es, die rechnen konnten.

Wenn ich also wissen will, wie sich der Immobilienmarkt in der Zukunft entwickelt, dann möchte ich doch keinesfalls das Ergebnis mit meiner Meinung versauen – das wäre doch blöd!

Also bemühe ich mich, beim Nachdenken, beim Abwägen der Argumente keine Meinung zu haben und eben nicht zu überlegen, ob das eine oder andere gut oder schlecht ist.

Und meist funktionieren Argumente ja so, dass ein Argument aufs andere aufbaut. Das ist wie bei einem Kartenhaus, wo man eine Karte mit einer anderen Karte abstürzt und Ebenen baut, auf die man noch mehr Ebenen stellen kann. Nur, dass die Karten keine Karten sind, sondern Argumente. Und wenn das gut läuft und man ein super-stabiles Kartenhaus hinbekommt, das man mit ganz vielen guten Informationen verklebt hat (denn nur gute Informationen ergeben den Kleber, der wirklich hält) dann kann man sich am Ende auf seine Konstruktion stellen und von dem Turm in der Ferne schauen und die Zukunft sehen.

Das heisst, ich will, dass meine Informationen stimmen (Informationen sind der Kleber, der die Argumente zusammenhält) und ich will, dass meine Argumente stimmen, also die Karten, aus denen mein Turm bestehet. Ich will also auf keinen Fall eine Karte bewusst oder unbewusst manipulieren, länger, oder kürzer ziehen, weil das meinen Turm schief machen würde und ich von seiner Spitze irgendeinen Quatsch sehen würde, bloss nicht die Zukunft – wenn denn der Turm überhaupt hält und nicht schon aufgrund der vielen schiefen Argumente in sich zusammenkracht.

Darum, will ich mir, auf jeden Fall, keine Meinung bilden, wenn ich irgendwas überlege. Und schon gar nicht, nachdem ich erst die allerersten Argument bedacht habe und allerhöchstens eine Ebene geschafft habe. Ich will noch viele Argumente, viele Karten aufeinanderstellen. Ob irgendwas gut ist oder schlecht? Also die Frage, die die meisten gleich am Anfang stellen – berurteilen lässt sie sich ohnehin erst, wenn man auf dem fertigen Turm steht und hinunterschaut. Wenn der Turm aus Argumenten gewachsen ist. Erst von dort, also von der Spitze des Turmes, lässt sich wirklich beurteilen, ob etwas gut ist oder schlecht.

AI – der Gott der Zukunft

Derzeit arbeite ich in einem kleinen Team an einem neuen Korsakow-Film. Es geht um die Zukunft, um AI (Artificial Intelligence), um Computer, um vernetztes Denken.

Codonaut – Wohin programmieren wir uns?

 

Der folgende Text ist in diesem Zusammenhang entstanden.

Wenn Leute sagen, dass Künstliche Intelligenz eine Black-Box sei, die Entscheidungen trifft bei denen die Menschen nicht mehr in der Lage sind, zu verstehen, wie es zu diesen Entscheidungen kommt, dann kommt mir das bekannt vor.

Ich bin in Bayern aufgewachsen, in einer Kleinstadt. Da gab es auch ein Black-Box, die Entscheidungen traf, die das Leben täglich aufs neue bestimmte. Es gab eine ungefähre Vorstellung wie man sich verhalten musste, aber man wusste nie genau, was die Black-Box sich ausdachte. Die Black-Box hies “Lieber Gott”, und Zweifel, an dessen Existenz kamen mir erst später. Ein  gläubiger Mensch kann allenfalls spekulieren, nicht aber erklären, wie und warum ein Gott zu seinen Entscheidungen kommt. Als gläubiger Mensch habe ich angenommen, dass Gott Buch führt, über die Sünden wie die guten Taten. Es wurde mir gesagt, dass Gott die guten Taten belohnt und die schlechten bestraft, dass Gott ein kompliziertes Register führt, so kompliziert und allumfassend wie einem heute Google, Payback oder die Schufa vorkommt. Sich gut im Sinne der Regeln zu verhalten ist also für mich nichts neues. Ich kenne es aus dem katholischen Bayern, das mir als Kind so normal vorkam.

Und so, wie Künstliche Intelligenz mensch-gemacht ist, ist Gott mensch-gemacht. Hat sich der Mensch Gott ausgedacht.

Wie kam es, dass sich der Mensch Gott ausgedachte?

Die Hirne der Menschen sind ausgelegt, in überschaubaren Gruppen zusammenzuarbeiten. Danach stößt das Hirn an eine Kapazitätsgrenze. Mit dem Trick des gemeinsamen Gottes, haben es die Menschen geschafft die Familie zu erweitern, und gelernt, Vertrauen zu Individuen haben zu können, die sie nicht genau kannten. So haben sie es geschafft sich in immer größeren Schwärmen zu organisieren, um gemeinsam an immer größeren Zielen zu arbeiten.

So haben die Menschen den gesamten Planeten unterworfen. Der Mensch hat mit Gott (bzw. den Götter, der verschiedenen Religionen), Regelsysteme entwickelt, an die sich die kritische Masse der Individuen innerhalb einer Gruppe halten, bzw. hielten.

Das Regelsystem der Götter hat ausgedient. Denn es stößt gerade an seine Kapazitätsgrenzen. Die durch technischen Fortschritt hervorgerufene, immer bessere Kommunikation unter den Individuen, lässt das bestehende System brüchig werden. Zweifler gab es schon immer, die erkannten, wie offensichtlich blödsinnig die Black-Box Gott ist. Doch deren Stimme ist verhallt, noch bevor sie eine kritische Menge an Menschen erreichen konnte. Die heutigen Kommunikationswerkzeuge ermöglichen es nun den Zweiflern, genügend Menschen zu erreichen und zu überzeugen, so dass das System des Glaubens an die Wahrheit am Kippen ist. Die kritische Masse ist vermutlich schon erreicht. Wir erleben derzeit einen Krieg der Geschichten, es ist vielleicht das letzte Aufbäumen derer, die an eine Wahrheit glauben. Dieser Kampf wird schon seit einigen Generationen geführt. Gott ist tot und immer mehr Menschen sind sich dessen bewusst.

Der Mensch ist gerade dabei, das System Gott zu durchschauen und das macht es notwendig, ein neues System zu etablieren, ein System, so kompliziert, dass es der Mensch mit seinem Hirn nicht knacken kann. Ein System, das es ermöglicht, in noch größere Gruppen von Menschen zusammenzuarbeiten.

Kapitalismus, Konsumismus, Humanismus sind Kandidaten. Der Glaube an die Künstliche Intelligenz des Supercomputers ist nun auch im Rennen, das Organisationsprinzip für die Zukunft zu werden. Vielleicht ist Künstliche Intelligenz sogar der aussichtsreichste Kandidat.