Warning: file_put_contents(): Only 0 of 10 bytes written, possibly out of free disk space in /var/web/h/heller.christian/htdocs/www.plomlompom.de/PlomWiki/plomwiki.php on line 287
Versions-Geschichte: "TheSystemsBible"
PlomWiki: Zur Start-Seite Suche Letzte Änderungen (Feed) Letzte Kommentare (Feed)
Impressum Datenschutz-Erklärung

Versions-Geschichte: "TheSystemsBible"

Ansicht Bearbeiten Anzeige-Titel setzen Versions-Geschichte Seiten-Passwort setzen AutoLink-Anzeige ein-/ausschalten
2014-02-03 03:37:33 (rückgängig machen): AutoSum: [-] *] … (?):
64d63
-     *] …
2014-02-03 03:37:16 (rückgängig machen): AutoSum: [+] *] Feedback ist ein Informations-Rücklauf erst dann, wenn er das Verhalten des bet… (?):
54c54
-     *] Feedback ist es ein Informations-Rücklauf erst dann, wenn er das Verhalten des betroffenen Systems verändert. Alles Andere ist Rauschen; gibt es dessen zu viel, werden relevante Informationen irgendwann davon überdeckt. Überfordert beginnt das System, Input zu ignorieren. Ein System aber, das Input ignoriert, ist auf dem Weg zum Scheitern/Kollaps.
+     *] Feedback ist ein Informations-Rücklauf erst dann, wenn er das Verhalten des betroffenen Systems verändert. Alles Andere ist Rauschen; gibt es dessen zu viel, werden relevante Informationen irgendwann davon überdeckt. Überfordert beginnt das System, Input zu ignorieren. Ein System aber, das Input ignoriert, ist auf dem Weg zum Scheitern/Kollaps.
2014-02-03 03:36:33 (rückgängig machen): AutoSum: [+] *] Betrachte jedes Teil eines Systems als FehlerKorrektur eines anderen Teils. (De… (?):
58a59,63
+     *] Betrachte jedes Teil eines Systems als FehlerKorrektur eines anderen Teils. (Deshalb lässt sich nicht einfach ein Teil isoliert lösen.)
+     *] Erweitere deine Optionen im Umgang mit dem System / die Zahl der verfügbaren AngriffsPunkte, indem du es ausgiebig testest, und von allen Seiten, auf alle erdenklichen Weisen. (Aber übertreibe es nicht: Vollständig wirst du nie alle seine VerhaltensWeisen austesten können. Verliere dich nicht im ewigen Testen. Irgendwann lohnt es sich, radikaler umzudenk / auf höhere Ebenen zu wechseln.)
+     *] Direkte Versuche, Systeme zu re-organisieren, führen zu Abwehr/SelbstErhaltungs-Reaktionen der Systeme und infolge zur Verschlimmerung dessen, was man beheben wollte. Bedenke auch: Jedes AusTesten des Systems wird vom System bemerkt, infolge ändert es sich, man könnte vielleicht sagen: lernt und passt sich an.
+     *] Verhalten sich Systeme plötzlich besonders seltsam oder exzessiv, suche die Ursache in einer Feedback-Schleife. Aus dem Ruder laufende Selbst-Referenzen sind häufig Fehler-Ursachen. Vermeide "try harder"-Ansätze der Lösung systemischer Probleme, denn die führen nur zu Feedback-Schleifen: Voraussichtlich wirst du genau einen der Faktoren stärken, aus denen das Problem herrührt.
+     *] Stattdessen: Finde heraus, als Teil [/welchen anderen/] Systems du den problematischen System-Teil manipulieren könntest. Re-Framing: Vielleicht ist das vermeintliche Problem gar keins, oder ein ganz anderes. Die Deutung und Verwendbarkeit eines Systems hängt vom Rahmen ab, dem man ihm zuschreibt; man versuche, den Rahmen zu ändern, wenn sich das System selbst nicht direkt ändern lässt.
2014-02-02 03:31:00 (rückgängig machen): AutoSum: [+] *] Eine Manager in einem komplexen System muss nicht nur damit rechnen, dass seine… (?):
51c51,57
-     *] …
+     *] Eine Manager in einem komplexen System muss nicht nur damit rechnen, dass seine Anweisungen vom System verschluckt werden, sondern auch, dass keine korrekten Daten zu ihm empor dringen.
+     *] Zugunsten ihres Selbst-Erhalts verweigern Systeme den verlangten Output, perfektionieren aber die Fähigkeit, das zu verdecken bzw. den Mangel an verlangtem Output zur Legitimation ihrer Expansion zu nutzen.
+     *] Ein guter Manager versucht nicht, das Geschehen von Dingen zu erzwingen, sondern zu eliminieren, was dem Geschehen von Dingen im Weg steht. Er erkennt qua Erfahrung, was das System kann (statt: was es soll), und bringt diese Potentiale zur Anwendung. Erfolg stellt sich weniger durch einen genialen Einfall, sondern vor allem durch das Vermeiden kritischer Fehler ein.
+     *] Feedback ist es ein Informations-Rücklauf erst dann, wenn er das Verhalten des betroffenen Systems verändert. Alles Andere ist Rauschen; gibt es dessen zu viel, werden relevante Informationen irgendwann davon überdeckt. Überfordert beginnt das System, Input zu ignorieren. Ein System aber, das Input ignoriert, ist auf dem Weg zum Scheitern/Kollaps.
+     *] Feedback kann immer nur über die Vergangenheit informieren. Die Zukunft lässt sich aufgrund von Feedback nicht vorhersagen; bestenfalls lassen sich Trends erkennen. Die Zukunft lässt sich mithilfe von bzw. in Reaktion auf Feedback mitgestalten: So wie man eben Katastrophen vermeidet, wenn man auf ihre Anzeichen angemessen reagiert, bzw. Chancen ergreift, die sich bieten.
+     *] Wird ein SachVerhalt als komplexes Groß-Problem erkannt, das nur durch ein komplexes System zu lösen sei, wird das in Folge gebaute System das Groß-Problem nicht lösen. Wirksame LösungsAnsätze für den SachVerhalt kommen wenn dann aus anderen Richtungen, die den SachVerhalt gar nicht als komplexes Groß-Problem erkennen und angehen. Vielleicht löst das unwirksame System aber dafür Anderes.
+     *] Wer perfektionistisch und mit totalem Kontroll-Anspruch ein System zu lenken versucht, wird sich dabei auf Anderes konzentrieren als die Stellen, wo das System zu scheitern beginnt.
2014-02-02 03:12:38 (rückgängig machen): AutoSum: [+] *] [*"D. Intervention"*]: / *] … (?):
51a52,53
+   *] [*"D. Intervention"*]:
+     *] …
2014-02-02 02:36:57 (rückgängig machen): AutoSum: [+] *] Systeme, vor allem komplexe, sind monströs, ungeheuerlich, gefährlich, wie alle… (?):
47a48,50
+     *] Systeme, vor allem komplexe, sind monströs, ungeheuerlich, gefährlich, wie alle bisherigen Thesen zeigen. Einmal losgelassen, sind sie auch nicht mehr einzufangen. Darum vermeide, so gut es nur geht, neue Systeme zu schaffen. Soweit es geht, verzichte bzw. nutze einfach existierende Systeme. Geht auch das nicht, entwerfe das neue System so klein als nur möglich.
+     *] Sollen sie funktional sein, entwerfe neue Systeme den Verhältnissen angepasst (statt ihnen gegenüber sperrig) und locker (Abweichungs-tolerant; nicht zu eng geplant). Initial schlecht designte und daher non-funktionale Systeme lassen sich nicht ins Gute patchen; besser ist es, sie aufzugeben und neu anzufangen. Trau keinem SystemDesign, eh es nicht umfassende Praxis-Tests bestanden hat.
+   *] [*"C. Management and Other Myths"*]:
2014-02-02 02:09:58 (rückgängig machen): AutoSum: [+] *] Wie Probleme nicht lösen: Sie gar nicht als Probleme erkennen (zum NaturZustand… (?):
42a43,47
+     *] Wie Probleme nicht lösen: Sie gar nicht als Probleme erkennen (zum NaturZustand erklären; den Status Quo damit legitimieren, er sei Status Quo). Indem man der Lösung vorangehend ein unendliches Informations-Sammeln für nötig erklärt. Indem man sie, wenn sie Teil eines komplexen Systems sind, einfach mit Gewalt ausschaltet (was ihre Ursache unberührt lassen, unerwartete Folgen entfalten mag.)
+     *] Wie Probleme lösen: Sie gar nicht erst entstehen lassen, indem man die Interaktion mit den Systemen hinter ihnen unterlässt. Nicht unbedingt ein Argument, problematische Systeme gewähren zu lassen: Es geht darum, nicht stur und ignorant sich in vermeidbare Auslöser von Unheil zu stürzen. Wähle die Systeme, mit denen du interagierst, sorgfältig aus nach deinem Vermögen, sie zu handlen.
+     *] (Klingt alles sehr nach dem GelassenheitsGebet.)
+     *] Probiere den selben vermeintlich erfolgsversprechenden Lösungs-Ansatz, der scheitert, nicht immer wieder aus. Probiere stattdessen etwas Anderes aus. Widme dich bei wiederholtem Scheitern einem anderen Problem oder einem anderen System.
+   *] [*"B. Practical Systems-Design"*]:
2014-02-02 01:42:22 (rückgängig machen): AutoSum: [+] *] [*"A. Systems and Self-Defense (Meta-Strategies)"*]: / *] … [-] *] … (?):
42c42,43
-   *] …
+   *] [*"A. Systems and Self-Defense (Meta-Strategies)"*]:
+     *] …
2014-02-02 01:40:33 (rückgängig machen): AutoSum: [+] *] Die Nachricht, die der Sender verschickt, ist nicht identisch der Nachricht, di… (?):
36c36,42
-     *] …
+     *] Die Nachricht, die der Sender verschickt, ist nicht identisch der Nachricht, die beim Empfänger ankommt. Die Bedeutung einer Nachricht erweist sich allein in dem Verhalten, das sie auslöst.
+     *] Des einen wertvolle Information ist des anderen wertlose, und umgekehrt. Der Wert einer Information verändert sich auch mit der Zeit. Die wertvollsten Informationen veralten am schnellsten. Aber auch veraltete und daher weggeworfene Information kann in einem neuen Kontext plötzlich wieder brennend aktuell werden. Die Information, die man braucht, ist immer am Schwersten zu bekommen.
+     *] Die Information, die man zu brauchen glaubt, ist nicht die Information, die man tatsächlich braucht.
+     *] Kommunikation mit komplexen Systemen: Nicht dem IrrGlauben erliegen, mit einer nachvollziehbaren rationalen Intelligenz zu reden. Komplexe Systeme unterliegen eigener, unverständlicher KommunikationsLogik. Man kann nur herumprobieren, die Information auf immer wieder neue Weise reinzubekommen. Antworten tun die Systeme in ihrer eigenen, schwer- oder missverständlichen SystemSprache.
+     *] Gut funktionierende Systeme verlangen wenig Kommunikation. Schlecht funktionierende Systeme dagegen triggern aufgrund von Fehlern und Verzögerungen Kommunikations-Kaskaden (Nachfragen usw.) über selbige, ersticken bald an Bearbeitung derselben (was diese Kaskaden weiter steigert), beschäftigen sich immer mehr nur mit ihrer SelbstKorrektur und verlieren den Realitäts-Draht nach draußen.
+ *] [*"Part Two: Applied Systemantics"*]:
+   *] …
2014-02-01 04:05:30 (rückgängig machen): AutoSum: [+] *] Je komplexer ein System wird, desto schwerer ist es nachzuvollziehen, desto meh… (?):
31c31
-     *] Je komplexer ein System wird, desto schwerer ist es nachzuvollziehen, desto mehr verhält es sich wie ein selbstsüchtig lebender Organismus, desto mehr verschieben sich seine Funktionalitäten gegenüber dem UrsprungsZweck, desto mehr unbeabsichtigte und unerkannte Effekte zeugt ees. Totale Systeme, die alles umfassen, rückkoppeln sich ohne ihnen äußeres Korrektiv selbst bis zur Katastrophe.
+     *] Je komplexer ein System wird, desto schwerer ist es nachzuvollziehen, desto mehr verhält es sich wie ein selbstsüchtig lebender Organismus, desto mehr verschieben sich seine Funktionalitäten gegenüber dem UrsprungsZweck, desto mehr unbeabsichtigte und unerkannte Effekte zeugt es. Totale Systeme, die alles umfassen, rückkoppeln sich ohne ihnen äußeres Korrektiv selbst bis zur Katastrophe.
2014-02-01 04:04:13 (rückgängig machen): AutoSum: [+] *] Es gibt keine fehlerfreien komplexen Systeme. Komplexe Systeme sind im permanen… (?):
29,32c29,34
-     *] Es gibt keine fehlerfreien komplexen Systeme. Komplexe Systeme sind im permanenten FehlerModus, nur manche fejlern graziler als andere; manchmal bemerkt man das Fehlern gar nicht. Die verursachten Schäden oder Neben-Effekte werden dem System nicht als Fehler angerechnet, sondern als unvermeidlicher NaturFakt akzeptiert, oder gar als Fortschritt gewertet.
-     *] Tatsächlich lässt sich Einiges daraus gewinnen, ein unbeabsichtigtes Verhalten eines Systems nicht gleich als Fehler zu antagonisieren. Große Entdeckungen und Erfindungen wurden auf diese Weise gemacht.
-     *] Je komplexer ein System, desto schwerer ist es nachzuvollziehen, desto mehr entwickelt es ein EigenLeben, desto mehr unbeabsichtigte bis unerkannte NebenEffekte produziert es, desto größere Fehler/Unfälle erzeugt es, desto länger dauert es, diese Fehler zu erkennen .
-     *] …
+     *] Es gibt keine fehlerfreien komplexen Systeme. Komplexe Systeme sind im permanenten FehlerModus, nur manche fehlern graziler als andere; machen permanente FehlerKorrektur nötig; manchmal merkt man das Fehlern gar nicht. Die verursachten Schäden oder Neben-Effekte werden dem System nicht als Fehler angerechnet, sondern als unvermeidlicher NaturFakt akzeptiert, oder gar als Fortschritt gewertet.
+     *] Tatsächlich lässt sich Einiges daraus gewinnen, ein unbeabsichtigtes Verhalten eines Systems nicht gleich als Fehler zu verdammen. Große Entdeckungen, Erfindungen wurden gemacht, indem man unbeabsichtigtes Verhalten eines Systems in dessen eigentlichen Zweck umfunktionierte. Der Zweck eines Systems ist das, was es tut/erzeugt, nicht, was in seinem BauPlan eingeschrieben wurde.
+     *] Je komplexer ein System wird, desto schwerer ist es nachzuvollziehen, desto mehr verhält es sich wie ein selbstsüchtig lebender Organismus, desto mehr verschieben sich seine Funktionalitäten gegenüber dem UrsprungsZweck, desto mehr unbeabsichtigte und unerkannte Effekte zeugt ees. Totale Systeme, die alles umfassen, rückkoppeln sich ohne ihnen äußeres Korrektiv selbst bis zur Katastrophe.
+     *] Keines komplexen Systems FehlerPotential lässt sich erschöpfend vorausplanen. Immer und gerade treten Fehler auch da auf, wo sie nicht erwartet werden. Vielleicht war das bisherige Funktionieren des Systems sogar von Faktoren abhängig, die als unbeabsichtigt oder Fehler eingeordnet und beseitigt wurden. Die ambitioniertesten Rundum-Sicherheits-Initiativen produzieren den meisten Schaden.
+     *] Führt man ein neues komplexes System in Austausch mit einem bisherigen, kann auf diese Weise das bisherige aus dem GleichGewicht / in ein neues GleichGewicht gebracht werden und sich dadurch auch wiederum unerwartet verhalten / neue Fehler hervorbringen.
+     *] Gut funktionierende (gewünschte Ergebnisse produzierende?) komplexe System sind inkrementell aus einfachen gut funktionierenden Systemen erwachsen, nie von Anfang an in ihrer Komplexität am Reißbrett entworfen worden.
2014-02-01 03:42:00 (rückgängig machen): AutoSum: [+] *] Ein komplexes System funktioniert, oder nicht; lässt sich nicht planvoll ins ge… (?):
27a28,33
+     *] Ein komplexes System funktioniert, oder nicht; lässt sich nicht planvoll ins gewünschte Funktionieren lenken. So es bisher auf eine bestimmte Weise funktioniert, wird es weiter auf diese Weise funktionieren; wenn es tut, wie man will, sollte man es also in Ruhe lassen. VerbesserungsVersuche in komplexen Systemen zeitigen ungeplante, unerwartete NebenEffekte, machen Dinge vielleicht schlimmer. 
+     *] Es gibt keine fehlerfreien komplexen Systeme. Komplexe Systeme sind im permanenten FehlerModus, nur manche fejlern graziler als andere; manchmal bemerkt man das Fehlern gar nicht. Die verursachten Schäden oder Neben-Effekte werden dem System nicht als Fehler angerechnet, sondern als unvermeidlicher NaturFakt akzeptiert, oder gar als Fortschritt gewertet.
+     *] Tatsächlich lässt sich Einiges daraus gewinnen, ein unbeabsichtigtes Verhalten eines Systems nicht gleich als Fehler zu antagonisieren. Große Entdeckungen und Erfindungen wurden auf diese Weise gemacht.
+     *] Je komplexer ein System, desto schwerer ist es nachzuvollziehen, desto mehr entwickelt es ein EigenLeben, desto mehr unbeabsichtigte bis unerkannte NebenEffekte produziert es, desto größere Fehler/Unfälle erzeugt es, desto länger dauert es, diese Fehler zu erkennen .
+     *] …
+   *] [*"C. Communication Theory"*]:
2013-11-23 03:13:53 (rückgängig machen): AutoSum: [+] *] Systeme schreiben alle ihrer Funktions-Ausschreibung entsprechenden Erfolge inn… (?):
23c23
-     *] Systeme schreiben alle ihrer Funktions-Auschreibung entsprechenden Erfolge innerhalb ihrer ReichWeite sich selbst zu und schreiben so ihre eigene Notwendigkeit und Unersetzlichkeit fest. Je integrierter du in ein System bist, für desto alternativloser hältst du es.
+     *] Systeme schreiben alle ihrer Funktions-Ausschreibung entsprechenden Erfolge innerhalb ihrer ReichWeite sich selbst zu und schreiben so ihre eigene Notwendigkeit und Unersetzlichkeit fest. (Ich ergänze: Misserfolge dagegen werden zum Beweis für noch unzureichende Durchsetzung des Systems erklärt.) Je integrierter du in ein System bist, für desto alternativloser hältst du es.
2013-11-23 03:12:25 (rückgängig machen): AutoSum: [+] *] Der mit der Integration in die IllusionsBlase eines Systems ansteigende Realitä… (?):
22c22
-     *] Der mit der Integration in die IllusionsBlase ein System ansteigende RealitätsVerlust seiner Funktionäre schlägt sich nieder in deren Überschätzung der Bedeutung/Autorität ihres Amtes für die Welt (Arroganz des Uniformen-Trägers) und ihrer ansteigenden Blindheit für von außerhalb des Systems offensichtliche Fehler oder Exzesse des Systems.
+     *] Der mit der Integration in die IllusionsBlase eines Systems ansteigende RealitätsVerlust seiner Funktionäre schlägt sich nieder in deren Überschätzung der Bedeutung/Autorität ihres Amtes für die Welt (Arroganz des Uniformen-Trägers) und ihrer ansteigenden Blindheit für von außerhalb des Systems offensichtliche Fehler oder Exzesse des Systems.
2013-11-23 03:11:39 (rückgängig machen): AutoSum: [+] *] Systeme entfalten Definitions-Macht, um diese Missverhältnisse zu ihren Gunsten… (?):
18c18
-     *] Systeme entfalten Definitions-Macht, um diese Missverhältnisse zu ihren Gunsten zu lösen: Sollte das System dem Namen nach eigentlich X erzeugen, erzeugt aber tatsächlich Y, setzt sich im Umfeld des Systems zunehmend Y als Definition für X durch. Die Externalitäten des systemischen ProduktionsProzesses für Y werden zugleich als notwendige Bedingungen oder gar Erfolge für X begriffen.
+     *] Systeme entfalten Definitions-Macht, um diese Missverhältnisse zu ihren Gunsten zu lösen: Sollte das System dem Namen nach eigentlich X erzeugen, erzeugt aber tatsächlich Y, setzt sich im Umfeld des Systems zunehmend Y als Definition für X durch. Die Externalitäten des systemischen ProduktionsProzesses für Y werden infolge als notwendige Bedingungen oder gar Erfolge für X begriffen.
2013-11-23 03:10:24 (rückgängig machen): AutoSum: [+] *] Systeme ziehen nicht so sehr die Leute als Funktionäre an, die den dem System z… (?):
24c24,26
-     *] …
+     *] Systeme ziehen nicht so sehr die Leute als Funktionäre an, die den dem System zugeschriebenen Zweck am Besten erfüllen, als diejenigen, die Mitarbeit am System für eigene Zwecke fruchtbar zu machen wissen, und diejenigen, die sich aufgrund ihrer Art am Besten durch dem System (nicht seinem formulierten Zweck) inhärente Selektions-Mechanismen durchzubeißen wissen.  
+     *] Gestalter von systemischen Zwängen gestalten diese stets so, dass sie selbst sich diesen Zwängen entziehen können.
+     *] Jedes System kann gegen seinen ausformulierten Zweck missbraucht werden, und wird es auch.
2013-11-23 03:02:55 (rückgängig machen): AutoSum: [+] *] Systeme entfalten Definitions-Macht, um diese Missverhältnisse zu ihren Gunsten… (?):
17a18
+     *] Systeme entfalten Definitions-Macht, um diese Missverhältnisse zu ihren Gunsten zu lösen: Sollte das System dem Namen nach eigentlich X erzeugen, erzeugt aber tatsächlich Y, setzt sich im Umfeld des Systems zunehmend Y als Definition für X durch. Die Externalitäten des systemischen ProduktionsProzesses für Y werden zugleich als notwendige Bedingungen oder gar Erfolge für X begriffen.
19d19
-     *] Systeme entfalten Definitions-Macht, um diese Missverhältnisse zu ihren Gunsten zu lösen: Sollte das System dem Namen nach eigentlich X erzeugen, erzeugt aber tatsächlich Y, setzt sich im Umfeld des Systems zunehmend Y als Definition für X durch. Die Externalitäten des systemischen ProduktionsProzesses für Y werden zugleich als notwendige Bedingungen oder gar Erfolge für X begriffen.
2013-11-23 03:01:46 (rückgängig machen): AutoSum: [+] *] Ein System, das seiner Bezeichnung nach "für" X oder "gegen" Y arbeitet, tendie… (?):
17a18,23
+     *] Ein System, das seiner Bezeichnung nach "für" X oder "gegen" Y arbeitet, tendiert dazu, Y zu fördern und X zu hemmen.
+     *] Systeme entfalten Definitions-Macht, um diese Missverhältnisse zu ihren Gunsten zu lösen: Sollte das System dem Namen nach eigentlich X erzeugen, erzeugt aber tatsächlich Y, setzt sich im Umfeld des Systems zunehmend Y als Definition für X durch. Die Externalitäten des systemischen ProduktionsProzesses für Y werden zugleich als notwendige Bedingungen oder gar Erfolge für X begriffen.
+     *] Je eingebundener du in ein System bist, desto eher hältst du das und nur noch das für Wahrheit, was vom System reportiert wird. Dem System interne PositivFeedbackSchleifen bestätigen nur die Wahrheit des Systems und brandmarken jede von außen angedeutete Abweichung von dieser Wahrheit umso stärker als Falschheit.
+     *] Je größer/komplexer ein System, desto beschränkter interagiert es mit Individuen – desto weniger passt es sich also speziellen Anforderungen an und ist offen für die Vielfalten dessen, was außerhalb seiner liegt.
+     *] Der mit der Integration in die IllusionsBlase ein System ansteigende RealitätsVerlust seiner Funktionäre schlägt sich nieder in deren Überschätzung der Bedeutung/Autorität ihres Amtes für die Welt (Arroganz des Uniformen-Trägers) und ihrer ansteigenden Blindheit für von außerhalb des Systems offensichtliche Fehler oder Exzesse des Systems.
+     *] Systeme schreiben alle ihrer Funktions-Auschreibung entsprechenden Erfolge innerhalb ihrer ReichWeite sich selbst zu und schreiben so ihre eigene Notwendigkeit und Unersetzlichkeit fest. Je integrierter du in ein System bist, für desto alternativloser hältst du es.
2013-11-23 02:41:40 (rückgängig machen): AutoSum: [+] *] Ein System, das laut seiner Bezeichnung X erzeugt, erzeugt wenn überhaupt nur X… (?):
16a17
+     *] Ein System, das laut seiner Bezeichnung X erzeugt, erzeugt wenn überhaupt nur X-verwandte Erscheinungen; auf dem Weg dorthin aber viel Anderes. Die Funktionsbezeichnung entspricht nicht des Systems tatsächlicher Funktion. Dies MissVerhältnis verstärkt sich mit Größe/Komplexität des Systems. Es gilt v.a. auch für des Systems Funktionäre; deren BerufsBezeichnung bezeichnet kaum, was sie tun.
2013-11-23 02:35:56 (rückgängig machen): AutoSum: [+] Buch: John Gall, "The Systems Bible. The Beginner's Guide to Systems Large and Small".… (?):
1c1
- Buch: John Glasss, "The Systems Bible. The Beginner's Guide to Systems Large and Small". 1975/1986/2002.
+ Buch: John Gall, "The Systems Bible. The Beginner's Guide to Systems Large and Small". 1975/1986/2002.
17a18,19
+   *] [*"C. Functions and Failure"*]:
+     *] …
2013-11-23 01:45:19 (rückgängig machen): AutoSum: [+] *] [*"Part One: Basic Theory"*]: […] *] Jedes System zur Lösung eines Problems bri… (?):
8c8
- *] [*"Part One: Basic Theory"*]
+ *] [*"Part One: Basic Theory"*]:
9a10,16
+     *] Jedes System zur Lösung eines Problems bringt neue Probleme mit sich. Die "Anergie", der Aufwand, uns die Welt so zu machen wie wir sie gerne hätten, bleibt konstant – neue Systeme verteilen sie nur anders. (Einige Theoretiker meinen, große Systeme würden die Anergie sogar vergrößern.)
+     *] Systeme wachsen, bis sie allen ihnen im Kosmos verfügbaren Raum ausfüllen. Sie kolonisieren ihre Umwelt und verwandeln sie in Instrumente ihrer selbst.
+     *] Die Unvorhersagbarkeit der Wirkungen eines Systems steigt mit seiner Größe/Komplexität.
+     *] Versuche, eine bestehende Ordnung durch mehr Organisation (Steigerung der kybernetischen Komplexität) in eine bestimmte Richtung zu verändern, münden in einer umso stärkeren Wirkung dieser Ordnung in die Gegenrichtung. LeChatelier-Prinzip.
+     *] PositivFeedback-Schleifen blasen ein System bis ins Maximum auf, bis zu seiner Explosion. Oszillation dagegen sorgt für Stabilität, für Gleichgewichte: A bereitet durch sein Wachstum das Aufbegehren von !A vor, erliegt dann dem Wachstum von !A, das durch sein Wachstum wiederum das Aufbegehren von A vorbereitet, usw.
+     *] Das Scheitern von Systemen stellt sich gleich nach ihrem größten Erfolg ein: Die diesen bedingende Ordnung wird als "perfekt" verstetigt und verwandelt das System so in die perfekte Lösung für ein längst vergangenes Problem. Umso weniger kann es für neue Probleme adaptiert werden. Umgekehrt währen Provisorien in all ihrer Unabgeschlossenheit gegenüber neuen Herausforderungen am Längsten.
+   *] [*"B. Inside and Outside"*]:
2013-11-23 00:56:31 (rückgängig machen): AutoSum: [+] *] Systeme, also komplexe Organisationen (sei es nun von Menschen oder Maschinen-Tei… (?):
5c5
-   *] Systeme, also komplexe Organisationen (sei es nun von Menschen oder Maschinen-Teilen), versagen verlässlich gegenüber unseren Erwartungen an sie. Sie wirken nicht so wie geplant. Ihre Wirkungsweisen folgen höheren Regeln, die wir aber nicht intuitiv verstehen.
+   *] Systeme, also komplexe Organisationen (sei es nun von Menschen oder Maschinen-Teilen), versagen verlässlich gegenüber unseren Erwartungen an sie. Sie wirken nicht so wie geplant, und oft sogar gegenüber dem formulierten Ziel kontraproduktiv. Ihre Wirkungsweisen folgen nämlich höheren Regeln, die wir nicht intuitiv verstehen mit unserem auf einfachere Formeln ausgelegten Primaten-Gehirn.
2013-11-23 00:55:05 (rückgängig machen): AutoSum: [+] Buch: John Glasss, "The Systems Bible. The Beginner's Guide to Systems Large and Small… (?):
0a1,10
+ Buch: John Glasss, "The Systems Bible. The Beginner's Guide to Systems Large and Small". 1975/1986/2002.
+ 
+ Lektüre-Notizen:
+ *] [*Vorwörter, Einleitung, "Historical Overview"*]:
+   *] Systeme, also komplexe Organisationen (sei es nun von Menschen oder Maschinen-Teilen), versagen verlässlich gegenüber unseren Erwartungen an sie. Sie wirken nicht so wie geplant. Ihre Wirkungsweisen folgen höheren Regeln, die wir aber nicht intuitiv verstehen.
+   *] Diese höheren Regeln, denen Systeme unterliegen, gilt es zu sammeln und ins Verständliche zu formulieren. Die großen Systemtheoretiker haben hier viel geleistet. Das Feld der "Systemantik" bzw. dieses Buch bemühen sich um eine Volks-Ausgabe dieser Lehren.
+   *] Unbescheidener Ton. Alle Menschen sollten das lernen, was in diesem Buch vermittelt wird (wenn auch nicht notwendigerweise über dieses Buch). Das Thema das Buches ist nichts Geringeres als die GrundFrage aller Fragen des modernen Lebens. Denn ist nicht jedes technische und politische und kulturelle Problem heute ein System-Problem: eine Analyse von Systemen und Gegen-Systeme als Lösungs-Ideen?
+ *] [*"Part One: Basic Theory"*]
+   *] [*"A. The Mysterious Ways of Systems"*]:
+     *] …
PlomWiki-Engine lizensiert unter der AGPLv3. Quellcode verfügbar auf GitHub.