Von der Idee über die Erfindung zum Patent
1114
2022
978-3-8385-5895-0
978-3-8252-5895-5
UTB
Dietmar Zobel
10.36198/9783838558950
Wie entkomme ich der Routine? Wo tummeln sich die guten Ideen und wie setze ich sie um? Wie schütze ich meine Innovationen vor Nachahmer:innen und verdiene damit Geld? Der Autor liefert konstruktive Handlungsempfehlungen: Intuition ist wichtig, aber nicht alles - kreatives Denken und Arbeiten ist erlernbar!
<?page no="0"?> Dietmar Zobel Von der Idee über die Erfindung zum Patent <?page no="1"?> utb 5895 Eine Arbeitsgemeinschaft der Verlage Brill | Schöningh - Fink · Paderborn Brill | Vandenhoeck & Ruprecht · Göttingen - Böhlau · Wien · Köln Verlag Barbara Budrich · Opladen · Toronto facultas · Wien Haupt Verlag · Bern Verlag Julius Klinkhardt · Bad Heilbrunn Mohr Siebeck · Tübingen Narr Francke Attempto Verlag - expert verlag · Tübingen Psychiatrie Verlag · Köln Ernst Reinhardt Verlag · München transcript Verlag · Bielefeld Verlag Eugen Ulmer · Stuttgart UVK Verlag · München Waxmann · Münster · New York wbv Publikation · Bielefeld Wochenschau Verlag · Frankfurt am Main UTB (M) Impressum_03_22.indd 1 UTB (M) Impressum_03_22.indd 1 23.03.2022 10: 23: 51 23.03.2022 10: 23: 51 <?page no="2"?> Dr. rer. nat. habil. Dietmar Zobel ist Industriechemiker, Erfinder, Fach‐ autor, Methodiker und TRIZ-Trainer. Er war in leitenden Funktionen in der Industrie tätig und ist Inhaber zahlreicher Patente. <?page no="3"?> Dietmar Zobel Von der Idee über die Erfindung zum Patent expert verlag · Tübingen <?page no="4"?> DOI: https: / / www.doi.org/ 10.36198/ 9783838558950 © 2022 · expert verlag ‒ ein Unternehmen der Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetztes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Ver‐ vielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Alle Informationen in diesem Buch wurden mit großer Sorgfalt erstellt. Fehler können dennoch nicht völlig ausgeschlossen werden. Weder Verlag noch Autor: in‐ nen oder Herausgeber: innen übernehmen deshalb eine Gewährleistung für die Korrektheit des Inhaltes und haften nicht für fehlerhafte Angaben und deren Folgen. Diese Publikation enthält gegebenenfalls Links zu externen Inhalten Dritter, auf die weder Verlag noch Autor: innen oder Herausgeber: innen Einfluss haben. Für die Inhalte der verlinkten Seiten sind stets die jeweiligen Anbieter oder Betreibenden der Seiten verantwortlich. Internet: www.expertverlag.de eMail: info@verlag.expert Einbandgestaltung: Atelier Reichert, Stuttgart CPI books GmbH, Leck utb-Nr. 5895 ISBN 978-3-8252-5895-5 (Print) ISBN 978-3-8385-5895-0 (ePDF) ISBN 978-3-8463-5895-5 (ePub) Umschlagabbildung: © Peter Hermes Furian - stock.adobe.com Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. www.fsc.org MIX Papier aus verantwortungsvollen Quellen FSC ® C083411 ® www.fsc.org MIX Papier aus verantwortungsvollen Quellen FSC ® C083411 ® <?page no="5"?> 1 7 2 13 3 35 3.1 35 3.1.1 35 3.1.2 44 3.2 76 3.2.1 76 3.2.2 78 3.2.3 81 3.2.4 88 3.2.5 90 3.2.6 92 3.3 94 3.3.1 94 3.3.2 96 3.3.3 100 3.3.4 107 3.3.5 110 3.4 113 3.4.1 113 3.4.2 121 3.4.3 127 3.4.4 131 3.4.5 142 3.4.6 148 3.4.7 151 3.4.8 155 3.4.9 169 Inhalt Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Außerhalb der Routine: Kreatives Denken und Arbeiten . . . . . . . Methoden und Praxisempfehlungen . . . . . . . . . . . . . . . . . . . . . . . . Die wichtigsten Kreativitätstechniken . . . . . . . . . . . . . . . . . Herkömmliche Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . Moderne widerspruchsorientierte Methoden . . . . . . . . . . . Wo verstecken sich die Ideen, und wie finde ich sie? . . . . . Die Nadel im Heuhaufen: Thomas A. Edison . . . . . . . . . . . . Das „klassische“ Brainstorming: Alex Osborn . . . . . . . . . . . Die morphologische Gesamtübersicht: Fritz Zwicky . . . . . . Verschiedene Blickwinkel: Edward de Bono . . . . . . . . . . . . . Die Oase der falschen Verheißung: David Perkins . . . . . . . . Das Ideale Endresultat: Genrich S. Altschuller . . . . . . . . . . . Ein gut überlegter Start schlägt jede „geniale“ Spontanidee Das Pareto-Prinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Systemanalyse. Schädliche und nützliche Effekte . . . . . . . . Die geschichtliche Betrachtungsweise . . . . . . . . . . . . . . . . . Schon ein wenig Theorie hilft weiter . . . . . . . . . . . . . . . . . . Die richtigen Fragen stellen! . . . . . . . . . . . . . . . . . . . . . . . . . Ausgewählte einfache Lösungsstrategien . . . . . . . . . . . . . . . Standardfälle - häufiger als vermutet . . . . . . . . . . . . . . . . . . Was einander behindert, wird voneinander getrennt . . . . . Gewöhnliche und ungewöhnliche Kombinationen . . . . . . . Das Elementarprinzip der Umkehrung . . . . . . . . . . . . . . . . . Das Verändern der Umgebung . . . . . . . . . . . . . . . . . . . . . . . . Das Umwandeln des Schädlichen in Nützliches . . . . . . . . . Die nicht perfekte Lösung . . . . . . . . . . . . . . . . . . . . . . . . . . . Makrosysteme und Mikrosysteme . . . . . . . . . . . . . . . . . . . . . „Von Selbst“ - die raffiniert einfache Lösung . . . . . . . . . . . . <?page no="6"?> 4 191 4.1 191 4.2 199 4.3 203 4.4 210 4.5 213 4.6 215 4.7 218 5 233 5.1 233 5.2 246 5.3 253 5.4 266 6 273 6.1 273 6.2 292 6.3 294 6.4 307 7 321 7.1 321 7.2 322 7.3 336 7.4 341 7.5 351 7.6 354 8 361 9 373 Fehlermöglichkeiten und Denkfallen . . . . . . . . . . . . . . . . . . . . . . . Das Unterschätzen der Systemanalyse . . . . . . . . . . . . . . . . . Wirklichkeit ist mehr als ein Ausschnitt der Wirklichkeit . Die Öko-Falle und das Wunschdenken . . . . . . . . . . . . . . . . Das Übersehen nahe liegender Ähnlichkeiten . . . . . . . . . . . Das schwächste Kettenglied . . . . . . . . . . . . . . . . . . . . . . . . . . Die Triebkraft von Naturvorgängen . . . . . . . . . . . . . . . . . . . Ganz ohne Physik geht es nicht . . . . . . . . . . . . . . . . . . . . . . Technische, künstlerische und allgemeine Kreativität . . . . . . . . . . Humor, Satire, Phantastik, Semantische Intuition . . . . . . . . Innovative Prinzipien, demonstriert an Karikaturen . . . . . Optische Wahrnehmung und Kreativität . . . . . . . . . . . . . . . Sehr anregend: Umkehrformulierungen und Paradoxien . . Methodische und experimentelle Studien . . . . . . . . . . . . . . . . . . . Wie arbeitete der große Erfinder Hugo Junkers? . . . . . . . . . Erfindungspraktiker entdecken und nutzen TRIZ-analoge Prinzipien: H. M. Hinkel und G. Elsner . . . . . . . . . . . . . . . . . Eigene Experimente zu Altschullers Operator „A-Z-K“ . . . . Kann es „Künstliche Kreativität“ geben? . . . . . . . . . . . . . . . Von der Erfindung zur geschützten Erfindung . . . . . . . . . . . . . . . . Klar definiert: Entdeckungen, Erfindungen, Schutzrechte . . . Was heißt „schutzfähig“? Haupt- und Hilfskriterien . . . . . Die Rolle des Standes der Technik . . . . . . . . . . . . . . . . . . . . . Das Formulieren der Patentschrift - leichter als gedacht . . Das Gebrauchmuster als so genanntes „Kleines Patent“ . . Schutzrechtspolitik, Lizenzen, Arbeitnehmererfindungen . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Register . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Inhalt <?page no="7"?> 1 Einführung Die meisten Menschen vermuten, dass Kreative, also auch Erfinder, zu‐ nächst einmal außergewöhnlich intelligent sein müssen. Nicht wenige hoch Kreative sind tatsächlich außergewöhnlich intelligent. Es gibt aber auch Kreative, die kaum überdurchschnittlich intelligent sind, und bestenfalls durchschnittlich kreative Menschen, an deren überragender Intelligenz keinerlei Zweifel besteht. Abgesehen von der Fragwürdigkeit der meisten Intelligenztests, deren Ergebnisse - schon wegen des Trainingseffektes - kaum als objektiv an‐ zusehen sind, gilt heute als unbestritten, dass Intelligenz und Kreativität nicht ein und dasselbe sind. Neuere Untersuchungen zeigen zudem, dass es mehrere Arten von Intelligenz gibt, die untereinander kaum in Verbindung stehen. Es kommt also darauf an, von welcher Art Intelligenz jeweils die Rede ist. In Anlehnung an Gardner unterscheiden Langbein und Fochler folgende Arten der Intelligenz, die von Person zu Person recht unterschiedlich ausgeprägt sein können: „Der Mensch denkt in Sprache, fasst in räumlichen Begriffen auf, erspürt Rhythmen und Harmonien, rechnet mit logischen und mathematischen Hilfsmitteln, löst Probleme unter Einsatz seines Körpers und kann andere Menschen verstehen sowie sich selbst begreifen“ (Langbein u. Fochler 1997, S. 95). Die mit dieser Betrachtungsweise verbundene Einführung der Begriffe sprachliche, räumliche, musikalische, mathematische, körperliche und soziale Intelligenz bringt uns in der Sache allerdings auch kein bisschen weiter, obwohl in den moderneren Intelligenztests bereits unterschiedliche Fähig‐ keiten und Fertigkeiten gefragt sind. Immerhin darf vermutet werden, dass es analog zu diesen gleichsam „gesplitteten“ Intelligenzbegriffen - und dies in Übereinstimmung mit der Erfahrung - auch spezielle Arten von Kreativität gibt, so dass die Frage, ob jemand kreativ ist, besser nicht pauschal gestellt und beantwortet werden sollte. Noch einmal kurz zurück zu den Intelligenztests. Nach eigenen Erfahrun‐ gen lassen es junge Leute oft an Sprachbzw. Wortintelligenz fehlen: Sie kennen viele Wörter nicht, und bei anderen Wörtern sind sie nicht in der Lage, die eingebauten Fehler zu erkennen. Der deutsche Aufsatz wäre für <?page no="8"?> ihre Lehrer wohl eine rechte Strapaze. Das Selbstbewusstsein der Probanden bleibt jedoch ansonsten unbeschädigt. Sie bemerken ihren Defekt ganz einfach nicht. Vorschnelle Urteile oder überhebliche Schlüsse aufgrund solcher Teilergebnisse sind jedoch nicht gerechtfertigt, denn die gleichen Probanden arbeiten in anderen Sparten traumhaft schnell und sicher, so beispielsweise auch im sehr wichtigen Bereich der räumlichen Einbzw. Zuordnung. Die Beurteilung der Situation wird nicht einfacher, wenn wir die von Edward de Bono vertretene These berücksichtigen, dass hohe Intelligenz nicht unbedingt etwas mit ausgeprägter Denkfähigkeit zu tun hat. Im Zusammenhang mit dem Lösen von Denksportaufgaben behandelt er die nur bedingte Trainierbarkeit dieser Fähigkeit und schreibt: „Hoch intelligente Menschen können sich als ziemlich schlechte Denker erweisen. Sie mögen ebenso viel Training ihrer Denkfertigkeit benötigen wie andere Menschen, manchmal sogar mehr. Dies ist die fast vollständige Umkehrung der Ansicht, sehr intelligente Menschen seien automatisch gute Denker“ (de Bono 1995, S. 16). De Bono ergänzt seine verblüffende Feststellung mit eindrucksvollen Bele‐ gen: So neigt ein hoch intelligenter Mensch dazu, für seine jeweilige Ansicht einen rationalen und wohl argumentierten Fall zu konstruieren. Das enthebt ihn dann der Notwendigkeit, durch kritisches Nachdenken der - vielleicht ganz anders gearteten - Sache auf den Grund zu gehen. Auch wird in der Schule und im wirklichen Leben verbale Gewandtheit oft als Beleg für ausgeprägte Denkfähigkeit angesehen. Ein intelligenter Mensch schätzt diese für ihn schmeichelhafte Annahme und ist versucht, das Eine durch das Andere zu ersetzen. Auch neigt ein hoch intelligenter Mensch dazu, immer Recht haben zu wollen, als klug zu gelten und stets anerkannt zu sein - subjektive Faktoren, die einer kritischen Denkfähigkeit regelrecht entgegenwirken. Wir sehen also, dass Kreativität, Intelligenz und Denkfähigkeit keines‐ falls synonym gebraucht werden sollten. Ich bin weder Psychologe noch Pädagoge, sondern Naturwissenschaftler mit ausgeprägt technologischen Interessen, und ich möchte den Leser deshalb nicht mit weiteren Unterschei‐ dungsmerkmalen und Definitionen aufhalten, so interessant und faszinie‐ rend das Gebiet auch ist. Der Terminus Kreativität wird in meinem Buch nicht ausschließlich im Zusammenhang mit dem Anstreben hochwertiger technisch-wissenschaftli‐ cher Lösungen verwendet, sondern umfassend für das kreative Arbeiten auf 8 1 Einführung <?page no="9"?> hohem Niveau. Inbegriffen sind somit auch nicht-technische Lösungen. Die meisten Beispiele stammen allerdings, meinen Erfahrungen entsprechend, aus dem technisch-wissenschaftlichen Bereich. Die behandelten Analogien zur künstlerischen Kreativität können sich deshalb nur auf rein subjektiv ausgewählte Gebiete beschränken. So verstehe ich beispielsweise nichts von musikalischer Kreativität, und ich kann mit abstrakter Kunst nur bedingt etwas anfangen. Die Einteilung der Kapitel habe ich einerseits nach historischen, ande‐ rerseits nach denkmethodischen und praktischen Gesichtspunkten vorge‐ nommen. Im 2. Kapitel werden zunächst die typischen Merkmale des Kreativen abgehandelt, sodann die - oft unrealistischen - Erwartungen an den Kreativen besprochen, und schließlich wird Grundsätzliches zu den Bedingungen der kreativen Arbeit gesagt. Im 3. Kapitel finden Sie dann nachvollziehbare Handlungsempfehlungen zur Ideensuche und zum erfinderischen Arbeiten, erläutert an Beispielen. Natürlich ist die Versuchung, in die psychologisierende Betrachtungsweise zu verfallen und schließlich doch wieder beim „göttlichen Funken“ zu landen, stets präsent. Nach meiner Erfahrung gibt es jedoch beim kreativen Arbeiten viele nicht-intuitive Schritte gewissermaßen handwerklicher Art, so dass ich dieser Versuchung weitgehend widerstehen konnte. Zudem gibt es für die zweifellos sehr wichtigen intuitiven Aspekte der Kreativität hervorragende Literatur, verfasst von exzellenten Fachleuten. Es sei hier beispielsweise nur auf die Werke von Csikszentmihalyi (1999) sowie von Gardner (1996) verwiesen. Die von diesen Autoren praktizierte rein psycho‐ logische Sicht auf geniale Persönlichkeiten (wie z. B. Einstein, Freud, Picasso) hat indes den Nachteil, dass der Leser sich fragt, was er selbst denn nun aus solchen - in fast göttlichen Sphären angesiedelten - Betrachtungen lernen bzw. für sich verwerten kann. Hier schließt sich der Kreis: Es besteht offensichtlich ein Defizit an praktikablen, nachvollziehbaren Handlungs‐ empfehlungen, und genau diese hoffe ich im 3. Kapitel meines Buches bieten zu können. Im 4. Kapitel werden typische Fehler und Denkfallen sowie Strategien zu deren Vermeidung behandelt. Gerade der methodisch unerfahrene junge Erfinder tappt überdurchschnittlich oft in derartige Fallen, da er - einfach im Vertrauen auf seine Ideenfülle - frisch drauflos arbeitet. Von den Psy‐ chologen wird ihm die so genannte „fluide“ Intelligenz bescheinigt, d. h., er kann sehr schnell neue Fakten aufnehmen und eine Vielzahl von Ideen produzieren, ohne sich um vorhandenes Wissen zu kümmern. Der ältere 9 1 Einführung <?page no="10"?> Kreative hingegen geht bedachter vor: Er greift auf Erfahrungen zurück, er analogisiert, er überlegt, welches früher schon einmal erfolgreiche Schema für eine neue Aufgabe (die oft nur vermeintlich völlig neu ist) geeignet sein könnte. Diese Fähigkeit wird von den Psychologen „kristalline“ Intelligenz genannt. Da ich nicht mehr taufrisch bin und somit - wenigstens formal - unter diese Kategorie falle, vermittle ich im 4. Kapitel dazu auch eigene Erfahrungen. Das 5. Kapitel behandelt die Querbeziehungen zwischen technischer und nicht-technischer Kreativität. Für methodisch einigermaßen kompetent halte ich mich nur auf wissenschaftlich-technischem Gebiet. Die behan‐ delten Verbindungen zur allgemeinen und zur künstlerischen Kreativität betreffen deshalb nur bestimmte Teilgebiete, die mich interessieren. Sie haben besten Falles subjektiv-exemplarischen Charakter. Somit ist dieser Abschnitt eher als Studie aufzufassen, die das universelle Wirken der Kreativität aus meinem Blickwinkel zeigt. Das 6. Kapitel bringt ideengeschichtliche Studien, zunächst zum Wirken des Flugzeugkonstrukteurs Hugo Junkers. Er kann - im Gegensatz zur landläufigen Auffassung - fast als Pionier des Systematischen Erfindens gelten. Hinkel und Elsner haben (als Erfindungspraktiker) erfinderische Prinzipien selbst entdeckt und angewandt. Eigene experimentelle Arbeiten zum „Operator A-Z-K“ habe ich methodisch analysiert. Die abschließende Studie zur Frage der Künstlichen Kreativität kritisiert den Irrglauben, die so genannte Künstliche Intelligenz führe irgendwann einmal zur Künstlichen Kreativität. Menschliche Kreativität ist jedoch einmalig. Sie kann wohl auch künftig nicht durch Algorithmen ersetzt werden. Das 7. Kapitel behandelt die technischen bzw. formalen Schritte auf dem Weg zum eigenen Patent. Ich habe mich in diesem Kapitel vergleichs‐ weise kurz gefasst, zumal das Deutsche Patent- und Markenamt bereits Anleitungen zum Thema im Internet zugänglich gemacht hat. So konnte ich mich auf die wichtigsten praktischen Hinweise (Was ist schutzfähig? Wie recherchiere ich? Welche erfinderischen Kriterien sind zu erfüllen? Wie formuliere ich meine Patentschrift? ) beschränken. Noch ein Wort zum Stil des Buches. Fachautoren, die gelegentlich mit belletristisch formulierten Passagen arbeiten, können so oder so beurteilt werden. Darunter mögen Dampf-Plauderer sein, welche die fachlich un‐ zureichende Substanz nur aufblasen wollen. Ehrenhaft dürfte jedoch das Bestreben sein, den doch etwas drögen Stoff für den Leser schmackhaft zu machen. Im besten Falle kommt heraus, dass ein solches Buch lesbarer, 10 1 Einführung <?page no="11"?> verständlicher, einprägsamer und anregender als ein rein „fachidiotischer“ Text ist. Es ist eben alles andere als gleichgültig, in welcher Form ein anspruchsvoller Stoff dargeboten wird. Einerseits verzichte ich deshalb auf mathematisches Vokabular, ande‐ rerseits auf überflüssige Fremdwörter. Fremdwörter werden nicht selten missbraucht, um Wissenschaftlichkeit vorzutäuschen. Auf den intelligenten Nichtspezialisten wirken sie eher abschreckend. Ich setze deshalb, soweit im sprachlich verdorbenen Umfeld noch möglich, auf ein klares, verständliches Deutsch. Übliche Fremdwörter wurden jedoch beibehalten, sie sind im Zusammenhang meist selbsterklärend. 11 1 Einführung <?page no="13"?> 2 Außerhalb der Routine: Kreatives Denken und Arbeiten Beginnen wir mit einem methodischen Gedankenexperiment. Fragen wir normal intelligente Menschen nach den Verwendungsmöglichkeiten für eine Büroklammer, so antworten sie, sofern sie nicht zugleich auch kreativ sind, typischerweise etwa so: ■ Mehrere Manuskriptseiten zusammenklammern, ■ Kopie an das Original klammern, ■ Briefumschlag, der nicht kleben will, damit verschließen. Hingegen wird die gleiche Frage von kreativen Probanden, die nicht unbe‐ dingt hoch intelligent sein müssen, ganz anders beantwortet: ■ Eine Spirale drehen, ■ Eine Kette anfertigen, ■ Aufbiegen, dann die Typen der Schreibmaschine damit reinigen, ■ Haken und Doppelhaken biegen, ■ Dem Tischbein unterschieben, wenn der Tisch wackelt, ■ Elektrischen Kontakt herstellen, ■ Als Distanzstück für die Deckscheibe des Aquariums nutzen, ■ Abstrakte Kunstwerke während einer langweiligen Sitzung basteln. Bereits diese sehr unvollständige Gegenüberstellung zeigt wesentliche Un‐ terschiede in der Denkweise beider Gruppen. Die erste Gruppe denkt konvergent. Das konvergente Denken zielt weitgehend nur auf den her‐ kömmlichen Verwendungszweck (hier: etwas damit anklammern). Hinzu kommt, dass sich Vertreter dieses konservativen Denktyps streng an Vor‐ schriften jeder Art halten. Die Frage lautete hier, wie man eine Büroklammer verwenden kann. Der konvergente Denker, der u. a. auch dadurch gekenn‐ zeichnet ist, dass er wenig auffallen möchte, nimmt eine solche Frage grundsätzlich wörtlich und verzichtet damit auf die vielen verlockenden Möglichkeiten, die sich beim Einsatz mehrerer Büroklammern - auch für ihn - fast automatisch ergeben würden. Der Kreative hingegen denkt divergent (d. h. nach allen Richtungen), und zwar ziemlich unabhängig von seinem Intelligenzpotenzial. Er schlägt <?page no="14"?> deshalb auch Einsatzgebiete vor, die mit dem ursprünglichen Verwendungs‐ zweck fast oder gar nichts zu tun haben. Bereits geringfügige Veränderungen können so zusätzliche Möglichkeiten eröffnen, und damit zu verblüffend neuen Einsatzgebieten führen. Ferner missachtet der Kreative rein formale Vorschriften. Ohne zu zögern, schlägt er zahlreiche Verwendungsmöglichkeiten vor, für die man mehrere Büroklammern benötigt. Er riskiert dabei, vom Fragesteller für die „unzu‐ lässige“ Erweiterung seines Spielraumes (eine Büroklammer! ) kritisiert zu werden. Dies stört ihn jedoch kaum, denn die Hauptsache ist für den Kreativen nicht die Einhaltung von Vorschriften, sondern die möglichst schnelle Produktion möglichst vieler Ideen. Allerdings sei vor der allzu ein‐ seitigen Bewertung eines Probanden nur nach dem Kriterium „divergentes Denken“ gewarnt. Einerseits gibt es etliche weitere Kreativitätskriterien (s. u.), andererseits sollte bedacht werden, dass divergentes Denken bis zu einem gewissen Grade trainierbar ist: „Bei entsprechend geschickter Fragestellung und gezielt vorgenommener Änderung des Betrachtungsbereiches lassen sich sogar eindeutig konvergente Denker zu „pseudo-divergenten“ Ergebnissen führen“ (Mehlhorn u. Mehlhorn 1977, S. 93). Abgesehen vom divergenten Denken kennen wir eine ganze Reihe ausge‐ prägter Besonderheiten, Eigenschaften und Neigungen, die kreative Men‐ schen charakterisieren. Sicherlich ist mindestens ein Teil dieser Eigenschaf‐ ten in der Persönlichkeit des Kreativen fest verankert. Unstrittig handelt es sich dabei um Begabungen. Jedoch ist bekannt, dass sich Neigungen und Begabungen durchaus pflegen und entwickeln, andererseits aber auch unterdrücken oder verbiegen lassen: „Eine der sonderbarsten Anwendungen, die der Mensch von der Vernunft gemacht hat, ist wohl die, es für ein Meisterstück zu halten, sie nicht zu gebrauchen“ (G. Chr. Lichtenberg). Besonders ungünstig werden in einer auf striktes Befolgen von Normen und Vorschriften orientierten Umgebung kreative Kinder beurteilt, die nicht intelligent genug sind, ihre Unruhe stiftende Kreativität vor den so „vernünftigen“ Erwachsenen geschickt zu verbergen: „In einer Gesellschaft, die auf Kreativitätsentwicklung, auf die Förderung schöpferischen Denkens in der Schule wenig Wert legt, werden niedrig intelligente, aber hochkreative Kinder notwendig zu Außenseitern“ (Mehlhorn und Mehlhorn 1977, S. 148). 14 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="15"?> So ist denn die bittere Satire von Peter ein getreues Abbild der Wirklichkeit: Super-Fähige (hier: Super-Kreative) werden von der Gesellschaft ebenso er‐ barmungslos aussortiert wie Super-Unfähige (Peter und Hull 1972). Dies gilt wohl auch für die Intelligenz im Rahmen der Kreativität. Lax ausgedrückt: Man sollte im wirklichen Leben weder zu doof noch zu schlau sein. Es lebe die Gaußsche Normalverteilung! Auch sollte bei allen Betrachtungen zur Kreativität berücksichtigt wer‐ den, dass bereits die Wortwahl - weil subjektiv - von entscheidender Bedeutung ist. Eigenschaften, die allgemein als positiv gelten, werden aus der Sicht pessimistischer, nicht kreativer Betrachter derart verfärbt, dass sie kaum noch wiederzuerkennen sind. Risikofreudigkeit und Verantwor‐ tungslosigkeit, Hartnäckigkeit und Sturheit, Phantasiereichtum und Spin‐ nerei, Humor und Leichtfertigkeit, Fleiß und Strebertum sind regelrechte Begriffspaare. Sie stehen für ein und dieselbe Eigenschaft, je nachdem, ob ein kreativer Optimist oder ein nicht kreativer Pessimist die Sache beschreibt. Wir wollen in der folgenden Darstellung die Sicht des kreativen, optimistischen Betrachters wählen. Zunächst einmal ist der Kreative weitgehend frei von Vorurteilen. Dies ermöglicht ihm, völlig unbefangen an das zu lösende Problem heranzuge‐ hen. Während vor ihm fast alle in der konventionellen Richtung suchten, hat der Kreative früher oder später Erfolg, weil er unkonventionelle Denk- und Arbeitsrichtungen bevorzugt. Die Quellen, aus denen er seine Anregungen schöpft, sind außerordentlich vielfältig. Dazu gehören auch Gespräche mit sehr verschiedenartigen Partnern, unabhängig davon, ob es sich um akademisch gebildete Experten handelt oder nicht. Der Rang des Gesprächs‐ partners in der Hierarchie spielt für den Kreativen ebenfalls keine Rolle. Dies hat die bekannten Negativfolgen. So ist der Kreative aus der Sicht des reinen Karriere-Ritters schon deshalb blöd, weil er sich bei den Mächtigen nicht einschleimt und sein Bier mit den „verkehrten“ Leuten trinkt. Allerdings sind manche Hochkreative, die ich in meinen Seminaren kennenlernte, aus‐ gesprochen gewöhnungsbedürftig. Sie anerkennen keinerlei Konventionen, halten Höflichkeit für überflüssig, sind extrem ungehalten, wenn man ihrem in schroffer Kürze vorgetragenen geistigen Höhenflug nicht sofort folgen kann, und werden von ihrer Umgebung deshalb lieber gemieden als wegen ihrer - durchaus unbestrittenen - Fähigkeiten geachtet. Der Kreative besitzt ein weitgehend unabhängiges Wertesystem. Er teilt seine Umgebung nicht in „oben“ und „unten“, „einflussreich“ und „nicht einflussreich“ ein, sondern in „kreativ“ und „nicht kreativ“. Sofern er kein 15 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="16"?> Eigenbrötler ist, sucht er seine Mitstreiter allein nach diesem Kriterium aus, mit oder ohne Erlaubnis, quer durch die Hierarchie. Natürlich wird eine derartige Arbeitsweise von den Konservativen aller Couleur als verdächtig empfunden. So mancher, der in der Hierarchie eine hohe Position blockiert, sieht diese Arbeitsweise wegen des stets befürchteten Machtverlustes sogar als recht gefährlich an. Daran ändern auch modische Sprechblasen („Team‐ work“, „Team-Synergien“, „Interdisziplinäre Projektgruppe“) rein gar nichts. So werden denn Kreative nicht selten gemobbt, mindestens aber ausgebremst. Allerdings wäre es zu einseitig, den Kreativen nur als Hierarchienschreck zu zeichnen. Im dialektischen Sinne ebenso zutreffend ist, dass er die Gegebenheiten und Möglichkeiten seines Umfeldes energischer und findiger umsetzt als der Konservative, ungeachtet aller Schranken, Restriktionen und Bremsfaktoren, als da sind: Beharrungsvermögen, Hang zum vermeintlich Bewährten („Das war schon immer so“), Scheu vor dem Ungewissen, mangelnde Risikobereitschaft. Diese für den Kreativen störenden Faktoren sollten aber in der Praxis nicht nur negativ gesehen werden. Sie sind nicht einfach nur Brems-, sondern eben auch Korrekturfaktoren, die sich dann positiv auswirken können, wenn unausgegorene Ideen vom Kreativen zäh verfochten, oder wenn objektive mit subjektiven Einschränkungen verwechselt werden. In solchen Fällen wird der Kreative gezwungen, sich ständig weiter mit der Sache zu befassen, und die noch nicht ausgereifte Lösung so lange zu verbessern, bis sie allgemein überzeugt. Das gelingt beileibe nicht allen Kreativen, denn die Mühen der Ebene sind, gerade bei den „genialischen“ Typen, nicht gerade beliebt. In meiner Beratertätigkeit habe ich einen weiteren „Kreativ“-Typus ken‐ nengelernt, der sich darauf beschränkt, geheimnisvoll zu raunen, er habe da etwas ganz Hervorragendes bzw. Wunderbares erfunden. Es sei aber dermaßen geheim, dass er mir bestenfalls Andeutungen dazu machen könne - ich solle ihn aber dennoch in dieser Angelegenheit beraten (? ! ). Solche Typen sind dann regelmäßig schockiert oder gar beleidigt, wenn ich sie nach dem Stand der Technik auf ihrem Gebiet frage, und wenn sie von mir hören, dass ein Erfinder zweckmäßigerweise alles, mindestens von der Recherche über die Ausarbeitung der eigentlichen Erfindung bis zum überzeugenden Versuchsmuster und zum Entwurf der Patentschrift, selbst machen sollte. Solche „Erfinder“ vermuten seltsamerweise, dass irgendjemand (im Zwei‐ felsfalle: „die Gesellschaft“) sich um die eigentliche Arbeit zu kümmern hat, ihnen aber Ruhm, Ehre und fürstliche Tantiemen ganz allein zustehen. 16 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="17"?> Ist diese Haltung noch mit einem Ignorieren der Naturgesetze verbunden (ich hatte mehrere solcher Fälle, auch wenn es sich nicht direkt um das perpetuum mobile handelte), so ist die Lage schlicht hoffnungslos. Eine Verständigung ist dann nicht mehr möglich. Der um Sachlichkeit bemühte Berater wird von einem solchen „Erfinder“ als konservativer Ignorant, Bremser und Verbündeter des Establishments empfunden oder gar so be‐ zeichnet. Zum Glück sind derartige Fälle nicht allzu häufig, auch kommen sie beinahe nur unter Hobbyerfindern und auf Sand gelaufenen Freiberuflern vor. Dennoch haben solche Typen nicht unwesentlich zum Ruf des Erfinders als eines „Spinners“ beigetragen. Setzen wir nunmehr die bewusst positive Beschreibung fort. Wir wollen uns detailliert mit den typischen individuellen Eigenschaften des Kreativen befassen, wobei ich insbesondere auf meine Erfahrungen im Bereich der erfinderischen Kreativität zurückgreife. Besonders wertvoll ist für den Erfinder seine Phantasie. Die Phantasie ist es, welche den kreativen Menschen wesentlich über die Funktionen des besten denkbaren Computers hinaus erhebt. Gefährlich ist das weit verbreitete Vorurteil, Phantasie verleite nur zu technisch nicht realisierba‐ ren Vorschlägen, sei also letztlich ein anderer Ausdruck für realitätsferne Spinnerei. Phantasie ist jedoch die äußerst wertvolle Fähigkeit, vermeintlich nicht Verknüpfbares miteinander verknüpfen zu können. Der praktische Wert der Phantasie wurde von Thomas Mann treffend charakterisiert: „Phantasie heißt nicht, sich etwas auszudenken, sondern aus den Dingen etwas zu machen“. Dies umreißt die Rolle der Phantasie im kreativen Schaffen: Der Kreative arbeitet mit den „Bauelementen der Wirklichkeit“, die er in einer für Nichtkreative überraschenden Weise neu ordnet, um neue, zuvor nicht (oder nicht in dieser Weise) erreichte Mittel-Zweck-Beziehungen zu schaffen. So wird auch klar, warum Phantasie allein, isoliert von klaren Zielvorstellungen, wenig nützt: „Phantasie und Leichtfertigkeit sind Geschwister. Wer nur der Phantasie gehorcht, ist zur Originalität unfähig, glaubt sich aber originell, wenn er uns durch die Zusammenhanglosigkeit seines Tuns auf die Nerven geht.“ ( Jean Cocteau) Da von einigen Autoren die Phantasie geradezu vergöttert wird, wollen wir uns ansehen, was Patrick Süskind über Loriot schreibt: „Dürrenmatt hat einmal geäußert, kreative Phantasie arbeite durch das Zusammen‐ wirken von Erinnerungen, Assoziationen und Logik. An dieser Definition fällt neben 17 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="18"?> der Erwähnung des Wortes „arbeiten“ auf, dass sie ohne Begriffe wie „Inspiration“, „Einfall“, „Idee“, „Anregung“ etc. auskommt und die Betonung auf die strengeren intellektuellen Disziplinen legt. Sie passt nicht schlecht zur Beschreibung des Lori‐ otschen Schaffens. Damit soll um Gottes Willen nicht gesagt sein, dass Loriot keine Einfälle oder originellen Ideen hätte - das Gegenteil ist wahr! -, sondern dass Ideen und Einfälle, vor allem potentiell komische, keinen Pfifferling wert sind, solange sie nicht durch Kunstfertigkeit und intellektuelle Strenge zur Geltung gebracht werden“ (Süskind 1993, S. 11/ 12). Dem ist wahrlich nichts hinzuzufügen. Wenn schon für das künstlerische Schaffen der großen Meister Dürrenmatt, Loriot und Süskind derart stark das solid Handwerkliche betont wird, sollten wir uns für die technische Kreativität keine unnötigen Illusionen machen. Phantasie ganz allein, auch Ideen allein - noch dazu „aus dem Bauch“ produzierte -, helfen wenig. Sie bedürfen stets der intensiven Bearbeitung mit den Mitteln der Fachkenntnis, der Logik - und eben auch der „Kunstfer‐ tigkeit und intellektuellen Strenge“ (Süskind 1993, S. 12). Kommen wir nun zu den Fragen der Motivation. Interessante Arbeit, die freiwillig geleistet wird, sorgt stets für positive Emotionen. Das Gehirn des Kreativen macht bei Dienstschluss keineswegs Feierabend. Im Idealfall gehen Arbeit, Erholung, technisches Hobby und kreatives Schaffen fließend ineinander über. Falls der Kreative beruflich eine Routinetätigkeit auszu‐ führen hat, bemüht er sich, sofern er nicht unverzüglich kündigt, um die schnelle Erledigung dieser Aufgaben. Er gewinnt so Zeit für den Bereich, der ihn wirklich interessiert. Verloren hat der Kreative erst dann, wenn er die reine Routinetätigkeit für seine „eigentliche“ Arbeit zu halten beginnt. Dies kommt in reiferen Jahren nicht selten vor, ist doch Routine, in den höheren Rängen gekoppelt mit Titeln, Orden und Ehrenzeichen - verliehen für frühere kreative Leistungen - von einlullend-korrumpierender Wirkung: „Eine Unze Einbildung ersetzt ein Pfund Leistung.“ (L. J. Peter) „Einbildung ist auch eine Bildung.“ (gut an Blendern zu beobachten) Der Kreative lebt außerordentlich intensiv, was sein Verhältnis zur Umge‐ bung betrifft. Alles, was er zu beliebiger Zeit und in beliebigem Zusam‐ menhang sieht, hört oder erfährt, betrachtet er fast automatisch unter dem Aspekt seiner Verwendbarkeit für die gerade bearbeiteten Aufgaben. Die Welt ist für den - in der Wortbedeutung sinnlichen - Kreativen ein 18 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="19"?> faszinierendes Kaleidoskop. Im Gegensatz zum Nichtkreativen kann er mit den oftmals ungewöhnlichen Assoziationen, die sich für ihn laufend ergeben, stets etwas anfangen. So gehen ihm die Ideen niemals aus, wobei er die jeweils neue Kombination/ Assoziation sofort in Beziehung zum allge‐ meinen Wissensfundus setzt. Dieses - nicht selten unbewusste - assoziative Vorgehen erzeugt, speziell beim technischen Erfinder, eine stets wachsende Flut von Ideen: „Erfindungen regen zum Erfinden an“ (Gilde 1972, S. 27). Ein wesentliches Element dieser sinnlichen Komponente des Kreativen ist seine ausgeprägte Beobachtungsfähigkeit. Sie ist zwar begrenzt trainierbar, aber bei verschiedenen Menschen derart unterschiedlich ausgeprägt, dass die Rolle der individuellen Begabung kaum zu übersehen ist. Viele Leute können zwar beobachten, sie sehen aber den Wald vor lauter Bäumen nicht. Der Erfinder sieht hingegen stets auch das Allgemeine im Besonderen. Insbesondere besitzt er die Fähigkeit, recht ungewöhnliche Schlüsse aus ganz gewöhnlichen Beobachtungen ziehen zu können. Dabei sind diese Schlüsse nur aus Sicht des konventionell denkenden Normalbürgers unge‐ wöhnlich; aus Sicht des Kreativen handelt es sich fast um Banalitäten. Auch deshalb übersehen Hochkreative nicht selten den Neuheitswert ihrer Ideen: Was dem Kreativen bekannt erscheint, muss der Fachwelt durchaus nicht bekannt sein. Dieser Sachverhalt führt oft genug dazu, dass der Erfinder seine Ideen nicht zum Patent anmeldet, obzwar sie durchaus schutzfähig wären. Beim Künstler geht es, analog zum technischen Schutzrecht, um das Urheberrecht. Hier sind die Grenzen allerdings fließend: Nicht jedes künstlerische Produkt, das einem „irgendwie“ bekannt vorkommt, muss ein Plagiat sein. Scott Adams, der Vater des Dilbert-Prinzips, schreibt dazu: „In der Welt wird über zahllose Ideen diskutiert, von denen ich keine Ahnung habe. Viele von Ihnen werden in diesem Buch Ideen und Gedanken entdeckt haben, von denen Sie sicher sind, dass ich sie bei anderen Autoren (außer den in diesem Buch erwähnten) geklaut habe … Manche der Dinge, die ich schreibe oder zeichne, gehen in der Tat auf andere Autoren oder Cartoonisten zurück. Doch das geschieht meist unbewusst. Alle Schriftsteller tun das. Wenn mir bewusst ist, dass ich mich auf den Gedanken eines anderen Autors beziehe, kann ich die Sache im Normalfall so weit verändern, dass niemand dem geistigen Diebstahl auf die Spur kommt. Meine echten Plagiate bleiben üblicherweise unentdeckt. In der überragenden Mehrheit der Fälle, in denen Sie eine auffallende Ähnlichkeit zwischen einer meiner Arbeiten und 19 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="20"?> der eines anderen Schriftstellers oder Cartoonisten entdecken, beruht das meist auf purem Zufall oder einer Grundidee, die von Anfang an nicht sonderlich kreativ war“ (Adams 2000, S. 249). Der Kreative verfügt, und dies zu begreifen fällt seinen zahlreichen Neidern schwer, nicht etwa über ganz besondere Informationsquellen bzw. spezielle Möglichkeiten - seien es Mittel, seien es Anregungen -, sondern er vermag die jedermann zugänglichen Informationen ganz einfach kreativer als an‐ dere zu nutzen: „Sehen, was jeder sieht, und denken, was noch niemand gedacht hat“ (A. v. Szent-Györgyi). Ein klassisches Beispiel dazu ist die Entdeckung des mechanischen Wär‐ meäquivalents durch Julius Robert Mayer (1814 - 1878). Während einer Reise nach Indonesien, die er 1840 als Schiffsarzt unternahm, ließ er einen erkrankten Matrosen zur Ader. Er erschrak über die ungewöhnlich helle Farbe des Blutes und fürchtete schon, beim Öffnen der Vene eine Arterie verletzt zu haben. Die ortsansässigen Ärzte beruhigten ihn jedoch: in den tropischen Ländern, so ihre Beobachtung, habe das venöse Blut stets eine vergleichsweise helle Farbe. Diese Tatsache war also den Fachleuten bekannt, nur zog keiner irgend‐ welche Schlussfolgerungen daraus. Mayer hingegen ließ der Gedanke nicht mehr los, was wohl - bezogen auf die Farbe des venösen Blutes - der Grund für die Unterschiede zwischen der klimatisch gemäßigten Zone und den Tropen sein könne. Er erkannte, dass in den Tropen vergleichsweise sauerstoffreiches Blut in die Venen gelangt, und schloss daraus, dass der Mensch wegen der dort herrschenden Hitze weniger Sauerstoff zur Auf‐ rechterhaltung der Körpertemperatur durch die Verbrennungsvorgänge im Organismus benötigt. Was nun folgte, gleicht einem Wissenschaftskrimi: Mayer formulierte 1842 auf Basis seiner Beobachtungen die Äquivalenz verschiedener Energieformen, das Gesetz von der Unzerstörbarkeit der Ener‐ gie. Diese - aus Sicht der konkurrierenden Physiker - reichlich verschwom‐ men formulierte Arbeit fand praktisch keine Resonanz. Mayers spätere Arbeiten belegten das Energieprinzip mit experimentellen Daten, während er sich zuvor nur auf allgemeine Sätze philosophischer Natur gestützt hatte. Erst nach langem Prioritätsstreit mit Helmholtz und Joule, der an seinen Nerven zerrte und ihn zwischenzeitlich in ein Irrenhaus brachte, fand Mayer Anerkennung. 20 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="21"?> Mayer wird in der Kreativitätsliteratur als Beispiel für die Kategorie „Verkanntes Genie“ behandelt. Das ist nur bedingt richtig. Gilde weist auf die bestimmende Rolle einer klaren, sachgerechten Ausdrucksweise für komplizierte, bisher nicht zum Wissensfundus gehörende Sachverhalte hin. Auch zu Gilde kamen oft „Erfinder“, die sich als verkannte Genies fühlten. Er machte ihnen dann klar, „dass es keine verkannten Genies gibt, höchstens unfähige, die nicht in der Lage waren, ihre Gedanken klar auszusprechen, um die Fachwelt zu überzeugen. Als Beispiel führe ich dann J. R. Mayer … an, der sich als Arzt für Physiker unverständlich ausdrückte. Als seine Schriften verständlich wurden, das heißt der Fachsprache der Naturwissenschaftler angepasst, hat Mayer viel Anerkennung erhalten“ (Gilde 1985, S. 71). Wir sehen, dass Kreativität - aus verschiedenen Gründen - durchaus nicht automatisch anerkannt wird. Gleiches gilt für die im Ergebnis kreativen Handelns gefundenen wissenschaftlichen Wahrheiten. Bei sehr ungewöhn‐ lichen Ergebnissen hilft auch eine fachlich perfekte Ausdrucksweise nichts. Max Planck meinte sogar, dass wissenschaftliche Wahrheiten sich nicht als solche durchsetzen, sondern eines Tages „nur deshalb anerkannt werden, weil ihre Gegner aussterben“ (! ). Eine besonders wichtige Fähigkeit des Kreativen ist seine vorausschau‐ end-bildhafte Vorstellungskraft („Imagination“). Der Kreative sieht Künfti‐ ges bereits in Form fertiger Lösungen, wo andere noch gar kein Problem sehen. Geht ein konventionell denkender Mensch z. B. durch eine Produkti‐ onsanlage, so sieht er, sofern sich alles „dreht“, im Sinne eventuell anzupa‐ ckender Probleme buchstäblich nichts. Der Erfinder hingegen erkennt sofort die Mängel und Schwachstellen des Prozesses und beginnt vorausschauend über die Sache nachzudenken. Diese Problemsensibilität kann fast als ein Gespür für die verborgenen Defektstellen eines Prozesses bezeichnet und mit dem absoluten Gehör verglichen werden. Ein Mensch, der mit dem absoluten Gehör geschlagen ist, hört bereits Misstöne, wo andere noch in eitel Harmonie schwelgen: „Alle Neuerer haben etwas von einem Eigenbrötler, von einem Starrsinnigen, einem Dickkopf, weil sie eine bestimmte Sache schon sehen, die ihre Umwelt noch nicht sehen kann. Sie sind davon überzeugt, daß diese Sache sich verwirklichen läßt, und deshalb - weil sie etwas noch nicht Sichtbares schon sehen - wirken sie 21 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="22"?> zunächst merkwürdig auf ihre Umwelt, so als wären sie nicht der Normalfall …“ (Strittmatter 1985). Da sich aber der Kreative, dem das Hineindenken in die Mentalität nicht kreativer Menschen schwerfällt, als normal betrachtet, kommt es häufig zu verdrießlichen Missverständnissen. Dazu trägt bei, dass sich ein um Effizienz bemühter Kreativer gewöhnlich in Fachdiskussionen allzu kurz ausdrückt. Er bedenkt dabei nicht, dass neue Sachverhalte, die er oftmals lange durchdacht hat, und die nun zu seinem (für ihn persönlich selbst‐ verständlichen) Wissensfundus gehören, für seine Gesprächspartner alles andere als selbstverständlich sind. Vor einigen Jahren sprach ich mit dem da‐ maligen Weltmeister im Kopfrechnen, Gert Mittring. Er bestätigte mir, dass genau dies für ihn während seiner Kindheit und Jugendzeit ein schreckliches Problem war. Eltern und Lehrer konnten ihm schlicht nicht folgen, wenn er über etwas für ihn völlig Selbstverständliches ganz kurz und knapp sprach, ohne nähere Erläuterung. Er musste erst mühsam lernen, dass nicht jeder so schnell wie er denkt, und dass es manchmal erforderlich ist, etwas näher zu erklären. Da ihm derartige Erklärungen jedoch überflüssig - weil aus seiner Sicht banal - erscheinen, muss er sich auch heute noch darauf konzentrieren, diesen „Service“ für seine Umgebung stets aufrechtzuerhalten. Speziell begabte Menschen haben es extrem schwer, da sie sich selbst - wie beschrieben - für völlig normal halten und gar nicht verstehen können, dass ihre Umgebung einfach „nicht mitkommt“. Besonders tragisch ist, dass man dem solcherart Hochbegabten nicht nur mit Ablehnung begegnet, sondern ihn nach einer Weile wegen seiner Verhaltensauffälligkeiten sogar ausgrenzt, z. B. auf die Sonderschule schicken will oder sogar schickt. Lassen wir Mittring selbst zu Wort kommen: „Mit 4 Jahren konnte ich im Tausenderraum mühelos im Kopf addieren und subtrahieren … Niemand hat mir das Zählen, geschweige denn das Rechnen, beigebracht. Mit 6 Jahren faszinierten mich Brüche - die ich für mich „erfand“ - , und ich konnte schon damit Rechenoperationen durchführen, während sich meine Mitschüler noch mit dem 1 + 1 = ? herumplagten. Zu 1 + 1 = ? fiel mir damals ein: 5/ 5 + 8/ 8 = 12/ 6, aber solche „Lösungen“ brachten meine damalige Klassenlehrerin eher zur Verzweiflung als zum Entzücken! Ab dem Alter von 8 Jahren begann ich Algorithmen zu entwickeln und entdeckte so das Wurzelziehen. Mit 12 Jahren entwickelte ich eine Formel für den „ewigen Kalender“ und war dann fasziniert davon, was man so alles berechnen kann. Im Kopf natürlich! Für diese meine Begabung fand ich kein Verständnis in meiner Umgebung. Ich wurde sogar als 22 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="23"?> aggressiv eingeschätzt und fand keinerlei Zuwendung. Einhergehend mit meinem mathematisch-algorithmischen Denken hat sich auch meine Sprache abstrakter als für mein Alter üblich entwickelt. Rückblickend wird mir deutlich, warum mich keiner verstand oder keiner „vernünftig“ mit mir diskutieren wollte. Ich dachte und sprach sehr abstrakt, vermied jegliche Redundanzen oder Wiederholungen und Erklärungen. Mir war nicht bewusst, dass andere nicht so dachten wie ich, und mehr Interesse an Gesprächen über alltägliche Dinge hatten, die mich wiederum kaum interessierten … Es wurde mir nicht bewusst - hatte ich doch keine Vergleiche - dass meine Sprache sich für die meisten Menschen nicht als Kommunikationsmittel eignete “ (Mittring 2003, S. 168/ 169). Es lohnt sich jedenfalls, über die rein sprachliche Seite der Kommunikation einmal nachzudenken, und dies nicht nur beim Umgang mit Höchstbegab‐ ten, sondern auch im Kreise „gewöhnlicher“ Kreativer. Dazu gehört auch die Kommunikation zwischen Männern und Frauen, von denen Loriot bekannt‐ lich behauptete, sie „passen ganz einfach nicht zusammen“. Das allgemein bekannte „Aneinander-Vorbei-Reden“ von Männern und Frauen sollte uns immerhin zu denken geben. Derartige Unterschiede zu betonen, ist deshalb gewiss nicht sexistisch, zumal auf einigen anderen Gebieten Frauen deutlich überlegen sind. Wenn also Frauen mehrspurig denken und reden können, sollten die „einspurig programmierten“ Männer ihre eigene - angeblich stets logisch aufgebaute - Art der Argumentation nicht zur Norm erklären. Ungerecht ist jedenfalls, Frauen generell Konfusion vorzuwerfen. Getreu dem Umkehrprinzip (siehe 3.4.4) sollten wir diese Form der Kommunikation eher als Leistungsreserve, nicht als Defizit betrachten. Oft ist zu beobachten, dass ein Kreativer innerhalb weniger Jahre min‐ destens ein Fachgebiet gut zu beherrschen und erfinderisch zu nutzen lernt, dann jedoch - früher oder später - auf ganz andere Gebiete umschwenkt. Die Binsenweisheit „Schuster, bleib bei Deinen Leisten“ gilt für diesen Typus nicht. Der besondere Vorteil, ein Gebiet ganz unbefangen anzugehen, wird bei einem solchen Wechsel meist bewusst genutzt. Besonders Erfolgreiche meinen sogar, dass in der ersten Phase der Bearbeitung eines neuen Gebietes jede Art spezieller Sachkenntnis, insbesondere Literaturkenntnis, das Ent‐ stehen hoch kreativer Lösungen blockiert. Echte Pioniergebiete sind zudem dadurch gekennzeichnet, dass Literaturkenntnisse ohnehin nichts nützen, eben weil niemand nennenswerte Fachkenntnisse auf diesen völlig neuen Gebieten haben kann, und deshalb noch keine relevanten Publikationen existieren - sonst wären es keine Pioniergebiete. Ein wesentlicher Vorteil 23 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="24"?> bei der Bearbeitung neuer Gebiete ist zudem, dass dem Neueinsteiger nicht nur Spezialkenntnisse fehlen - was die Unbefangenheit fördert -, sondern auch die Spezial-Vorurteile der Gebietsexperten fremd sind. Natürlich gibt es „den Kreativen“ niemals in reiner Ausprägung. Dies gilt für jede Art von Typisierung, wie z. B. den versoffenen Finnen, den lockeren Südländer oder den stets höflichen Chinesen. Jedoch dürfte es erlaubt sein, mehr oder minder typische Eigenschaften einer Gruppe zu einem Idealbild zu vereinigen. Jeder Versuch, die Eigenheiten kreativer Menschen zu schildern, muss ohnehin lückenhaft bleiben. Hinzu kommt, dass man solche charakterisierenden Merkmale nicht einfach wie eine Checkliste anwenden kann, um z. B. aus dem Verhältnis von „trifft zu“ und „trifft nicht zu“ auf das Kreativitätspotenzial zu schließen. Schlicksupp schreibt dazu: „Erstens sind Persönlichkeiten zu komplex, um derart einfach analysiert zu werden, und zweitens muß ein kreativer Mensch nicht notwendigerweise alle diese Eigen‐ schaften auf sich vereinigen“ (Schlicksupp 1983). Schlicksupp bezieht sich mit seiner Feststellung auf eine Liste, die nach der Monografie von Ulmann (1968) zusammengestellt wurde, und die folgende Merkmale kreativer Personen aufführt: ■ Offene und kritische Haltung gegenüber der Umgebung, ■ Loslösung von konventionellen und traditionellen Anschauungen, ■ Vorliebe für Neues, ■ Fähigkeit, das Wahrnehmungsfeld unter verschiedenen Aspekten zu sehen, ■ Fähigkeit, Konflikte aus Wahrnehmungen und Handlungen ertragen zu können, ■ Vorliebe für komplexe Situationen und mehrdeutige Stimuli, ■ Fähigkeit, ausdauernd an einer Lösung zu arbeiten, ■ Zentrierung auf die Lösung einer Aufgabe, nicht auf die Erlangung von Ruhm und Anerkennung, ■ energisch, initiativ, erfolgmotiviert, ■ mutig, autonom, ■ sozial introvertiert, sich selbst genügend, ■ emotional stabil, ■ dominant, Neigung zur Aggressivität, ■ hohes Verantwortungsgefühl, ■ ästhetisch, ■ weniger ausgeprägte soziale und religiöse Werthaltungen, 24 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="25"?> ■ sensibles und differenziertes Reagieren auf die Umwelt, ■ humorvoll. Gewiss ist auch diese recht umfangreiche Liste nicht vollständig. Ferner enthält sie Merkmale, die vom gesellschaftlichen Umfeld abhängig und somit nicht individuell typisch sind. Auch gilt nicht jedes Merkmal absolut, denn z. B. ist Neues um jeden Preis objektiv kaum sinnvoll, selbst wenn ein „verbissener“ Kreativer tatsächlich unter allen Umständen das Neue bevorzugt. Insgesamt dürfte die Persönlichkeit des Kreativen mit dieser Merkmalsliste jedoch treffend umrissen sein. Ähnliche Merkmalslisten betonen die absolut persönlichkeitsspezifischen Eigenschaften, Neigungen und Besonderheiten des Kreativen noch wesent‐ lich stärker. So führte Schenk (1982) u. a. folgende Merkmale des kreativen Menschen auf: ■ Macht nur das, was er kann, ■ macht, wenn irgend möglich, nur das, was ihn wirklich interessiert, ■ erlebt die schöpferische Arbeit als Rauschzustand, ■ sieht Lachen und Humor als erstrangige Lockerungsfaktoren an und weiß sehr genau, warum Diktaturen zuallererst den Humor verbieten. Somit können denn auch viele Kreative das Weltbild des braven, ein wenig bürokratischen, um buchstabengetreue Erfüllung von Pflichtaufgaben be‐ mühten Bürgers kaum verstehen. Leidenschaftlichere Naturen empören sich nicht selten sogar gegen diese ihnen unverständliche Haltung, und dies gilt wahrlich nicht nur auf dem Gebiet der Technik. Lesen wir beispielsweise, was die berühmte russische Revolutionärin und spätere Sowjet-Diplomatin Alexandra Kollontai von der deutschen Sozialdemokratie um 1910 hielt: „Ich erinnere mich an die Abende im Cafe Josty, in Gesellschaft von Heine, Frank und Stampfer, des „vielversprechenden Nachwuchses“. In Wirklichkeit waren sie unglaublich fad und gottesfürchtig, folgten sie in allem dem Verstand … Keine Selbstlosigkeit, kein qualvolles Suchen nach neuen Wegen, kein ungeduldiges Vor‐ wärtsdrängen der Parteiführer, sondern eine bürokratische Maschinerie, die Vorsicht, Disziplin und eine schematische Organisation predigte“ (Kollontai 1980, S. 196). Der Soziologe und Pädagoge L. J. Peter hat für die Vertreter dieser Richtung den bösen Terminus Prozessionsmarionette geprägt, in höchstem Maße bildhaft und kaum erläuterungsbedürftig. Der Kreative ist, vor allem durch sein autonomes Wertesystem bedingt, das genaue Gegenteil einer solchen 25 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="26"?> Prozessionsmarionette. Er läuft grundsätzlich niemals einer Fahne oder einem „Führer“ allein deshalb nach, weil die Mehrheit hinterherrennt. Ich habe hier, wie gesagt, das Bild des Kreativen ganz bewusst etwas schematisch gezeichnet. Nicht jedes Merkmal trifft auf jeden Kreativen zu. Andererseits ist die Aufzählung gewiss nicht vollständig. Besonders ausgeprägt sind die individuellen Verschiedenheiten kreativer Menschen auf dem Gebiet der persönlichen Arbeitsweise. Vom absoluten Chaoten bis hin zum rational und in vielen Punkten logisch vorgehenden Kreativen reicht das Spektrum. Deshalb kann ich hier nur einige Beispiele bringen, die zwischen diesen Extremen liegen, um wenigstens annähernd die zu beobachtende Bandbreite aufzuzeigen. Ich verwende dazu u. a. eigene Erfahrungen, so dass der folgende Text abschnittsweise auch individuell begründete Empfehlungen enthält. Nicht wenige Kreative bevorzugen als Erinnerungshilfe für beliebige Fakten, so auch zum Bewahren plötzlich auftauchender eigener Ideen, die so genannte Mnemotechnik, im Volke treffend auch als Eselsbrücke bezeichnet. Sie beruht im Prinzip darauf, dass wir das unmittelbar Bewusste beeinflussen können. Schaffen wir uns künstliche Primärspeicher in Form von Bedeu‐ tungsnetzen, so fängt sich die in einem Sekundärspeicher zwischenzeitlich verschwundene Information. Wir überlisten damit unser Gehirn, das dazu neigt, zwecks Entlastung des Kurzzeitgedächtnisses die meisten Informatio‐ nen alsbald „weiter unten“, d. h. im Mittel- und schließlich im Langzeitge‐ dächtnis zu speichern. In diesen Speichern sind die Informationen zwar gut aufgehoben, aber eben leider ohne Hilfen nicht mehr oder nicht mehr sofort abrufbar. Die verlässlichste Hilfe ist noch immer die Eselsbrücke. Je unsinniger sie sachlich und sprachlich ist, desto sicherer lässt sich die gewünschte Infor‐ mation wieder auffinden. Unsinnig erscheint die gewählte Konstruktion nur dem Unbeteiligten, keineswegs ist sie dies für den Nutzer der eigenen Eselsbrücke. Ich merke mir längere Zahlen, indem ich Zweiergruppen bilde, die einprägsame Jahreszahlen aus der persönlichen Erlebniswelt bzw. der neueren Geschichte repräsentieren. Die Verknüpfung der Zweiergruppen, d. h. die Reihenfolge, muss dann durch eine möglichst lustige oder auch absonderliche Geschichte erfolgen, etwa nach dem Muster: 10 Jahre nach meiner Einschulung war der 17. Juni 53, an dem ich in 06484 Quedlinburg war, habe dann im Jahre 57 mein Studium begonnen und später das Jahr 84 durchaus nicht ganz so schlimm wie George Orwell erlebt. Wo nun welche Zahlen eingebettet werden, ist dann allein meine Sache. 26 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="27"?> Der Grund, warum Mnemotechnik überhaupt funktioniert, ist in der Inak‐ tivität großer Teile unseres neuronalen Netzes zu suchen. Das menschliche Gehirn hat offenbar genügend Platz und Kraft, sich nebenbei mit allerlei Spielereien, so auch mit absurd konstruierten Eselsbrücken, zu befassen. Von der häufig beklagten Überlastung, das haben die Untersuchungen der Physiologen inzwischen klargestellt, kann bei vernünftiger Organisation der geistigen Arbeit nicht die Rede sein. Die Gedächtniskapazität des mensch‐ lichen Gehirns ist, was die Schaltmöglichkeiten betrifft, theoretisch sogar unbegrenzt. Allerdings ist es nicht entfernt möglich, davon Gebrauch zu machen. Selbst bescheidene Erfolge bei der tatsächlichen Verbesserung der Gedächtnisleistung sind deshalb von enormer praktischer Bedeutung, eben weil ein trainiertes Gedächtnis bei guten intellektuellen Fähigkeiten und ho‐ her persönlicher Motivation die geistige Leistungsfähigkeit erheblich stei‐ gern kann. Dem entsprechend preisen viele Bücher das Gedächtnistraining als den Schlüssel zum Erfolg. Jedoch nützt einem Nur-Gedächtniskünstler seine einseitig entwickelte Fähigkeit kaum etwas, weil beziehungslos neben‐ einanderstehende Fakten und Zahlen ohne ungewöhnliche Assoziationen im besprochenen Zusammenhang keinen Praxiswert haben. Den Extremfall sehen wir beim Autisten. Zwar kann er endlose Zahlenkolonnen oder umfangreiche Texte fehlerfrei memorieren, jedoch ist er nicht imstande, mit dieser Faktenfülle etwas auch nur halbwegs Kreatives anzufangen. Wir sehen also, dass Gedächtnis keineswegs alles ist. Zwar prägen sich entsprechend trainierte Kreative ihre Gedankenblitze ein, als handele es sich um gängige Fakten, jedoch ist dieser Menschentyp vergleichsweise selten. Außerdem ist die Gefahr, dass wertvolle Ideen sofort wieder vergessen wer‐ den, viel zu groß. Der bildhafte Ausdruck „flüchtiger Gedanke“ bezeichnet die Situation treffend. Wer sich deshalb mit der Mnemotechnik (hier: zum verlässlichen Bewah‐ ren eigener Ideen, insbesondere Zwischenideen) nicht anfreunden kann, lege sich unbedingt eine Ideenbank an. Im Prinzip genügt es zunächst, alle Ideen und vermeintlich zufällig auftauchenden Gedankensplitter sofort zu notieren, unabhängig davon, wann und unter welchen Umständen sie auftauchen. Wer sich dazu erzieht, erspart sich das dumme Gefühl, am nächsten Morgen sagen zu müssen: „Zu dumm, gestern habe ich es aber noch gewusst“, oder „Beinahe hätte ich es gepackt“. Da wir unser Gehirn nicht beliebig ein- und ausschalten können, kommen die guten Einfälle oft genug zu den unmöglichsten Zeiten und an den unmöglichsten Orten. Wer das akzeptiert, richtet sich entsprechend ein, 27 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="28"?> wobei es auf die Form zunächst überhaupt nicht ankommt. So landet denn die Rohfassung einer Idee, oft völlig unausgegoren, kaum als Gedanken‐ splitter zu bezeichnen, nicht selten auf einem Packpapierfetzen oder einem Zeitungsrand. Die nächste Stufe sollte das Übertragen der dabei bereits etwas präziser zu formulierenden Ideen auf etwa gleichgroße Zettel sein. Pro Zettel sollte nur eine Idee notiert werden. Wichtig ist, dass der Kreative alle Assoziationen, die ihm dabei einfallen, sofort mit vermerkt. Durch Querverweise und Num‐ merierung der Zettel lassen sich die besonders wertvollen Verknüpfungen zu anderen Ideen festhalten und so in der weiteren Arbeit berücksichtigen. Besonders das Aufkleben der Zettel auf einen größeren Bogen ist sinnvoll. So lassen sich die Verknüpfungen per Pfeil stets übersichtlich darstellen, und das Beschriften der Pfeile macht die Ideenverknüpfung bzw. die Art der Assoziation besonders deutlich („Assoziationsnetz“). Viele bevorzugen in‐ zwischen auch die modernen Hilfsmittel, insbesondere das Mindmapping. Es sei aber darauf hingewiesen, dass auch hier das „Müll rein, Müll raus“-Prinzip gilt. Taugt der Inhalt nichts, so wird - durch die gefälligere Form - die Qualität des Ergebnisses nicht automatisch verbessert. So gesehen ist es mehr eine Glaubensfrage, ob man die modernen Mittel für „besser“ hält. Auch für die letzte - die publizistische - Stufe der Arbeit kann eine Ideensammlung nützlich sein. Besonders treffende Formulierungen fallen einem erfahrungsgemäß nicht auf Kommando ein. Man entlastet sich also, indem man ständig per Ideenbank an einer Sache arbeitet. Diese Feststellung klingt widersprüchlich, sie ist es aber nicht: Beim Trainierten verläuft der Prozess fast im Unbewussten. Dann wird eine solche Arbeitsweise nicht als belastend empfunden. Später, beim Schrei‐ ben, ist man schließlich auch nicht immer in Höchstform; dann ist es beruhigend und dem Fortgang der Arbeit förderlich, auf die gespeicherten Formulierungen zurückgreifen zu können. Noch ein Wort zum Zeitmanagement. Der erfolgreiche Kreative hat meist ein sehr positives Verhältnis zur verfügbaren Zeit, d. h. er nützt sie sinnvoll und jammert nicht pausenlos: „Keine Zeit, keine Zeit“. Hingegen benutzen viele, von denen kreative Leistungen berechtigterweise erwartet werden können, den angeblichen Zeitmangel als vorgeschobenes Argument, etwa in folgender Weise: 28 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="29"?> ■ Es ist unmöglich, zusätzlich zu den Tagesaufgaben kreative Aufgaben anzupacken. Die tägliche operative Hektik macht mich fix und fertig. Bleibt einmal etwas Zeit, so kann ich sie nicht mehr sinnvoll nutzen, weil meine Nerven durchgefeilt sind. ■ Die organisatorischen Aufgaben erdrücken mich. Die Papierflut schwillt an, sie muss aber bewältigt werden - und an wem bleibt es schließlich hängen? ■ Ich bin doch verpflichtet, jederzeit jeden anzuhören, d. h., es wird als unhöflich empfunden, wenn ich nicht jederzeit zur Verfügung stehe. Es gelingt mir nicht, diejenigen, die etwas von mir erwarten, einfach abzuwimmeln. Hinzu kommen immer wieder Meetings, auf denen ich keinesfalls fehlen darf. ■ Sagen Sie mir doch, was ich zuerst machen soll. Ich würde ja auch gern kreativ sein, aber die Tagesarbeit muss schließlich erledigt werden. Beides zusammen geht ganz einfach nicht. Neben teilweise verständlichen Gesichtspunkten enthält diese unvollstän‐ dige Aufzählung etliche Ausreden und Scheinargumente. Es ist deshalb erforderlich, zunächst einmal sich selbst gegenüber völlig ehrlich zu sein. Es nützt eben wenig, immer nur „die Anderen“ oder „die Bürokratie“ zu beschuldigen. Bereits 1980 beschrieb Heyde unmissverständlich, was gewiss auch heute noch zutrifft: „Viele sind versucht, dem Argument „keine Zeit“ den Mantel der Objektivität, der Unabänderlichkeit umzuhängen und damit ihre Schwächen zuzudecken. Keine Zeit haben die meisten Leute vor allem für solche Dinge, die sie weniger gern tun“ (Heyde 1980). Das klingt für Leute, die kreativ sein sollten, es aber nicht sind, natürlich recht unangenehm. Heyde belegt seine Aussage mit alarmierenden Zahlen: Für die Bearbeitung der wenigen wirklich wichtigen Aufgaben verwenden wir nur 20 % unserer Zeit, wobei bis zu 80 % aller Ergebnisse (! ) erzielt werden; die vielen mehr oder minder nebensächlichen Aufgaben schlucken hingegen 80 % unserer kostbaren Zeit, woraus aber nur 20 % aller Ergebnisse resultieren. Wesentliche Teile unseres Arbeitslebens werden demnach regel‐ recht vertrödelt. Wir haben es hier mit einem Sonderfall des Pareto-Prinzips zu tun, mit welchem wir uns in einem anderen, aber nicht minder wichtigen Zusammenhang (im Abschnitt 3.3.1) ausführlicher befassen wollen. 29 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="30"?> Da die kreativen Praktiker sehr wohl wissen, wer für alle arbeitet, fällt es den Unerfahreneren zunächst schwer, die Interessen der Gesellschaft bzw. ihres Unternehmens nicht offiziell, sondern nur mit Tricks und Finten sichern zu können. Mit wachsender Erfahrung bauen sie dann jedoch die geschilderte „inverse“ Arbeitsweise - fast sportlich - zu einem einwandfrei funktionierenden Verfahren aus (s. o.). Hier schließt sich der Kreis: Das alles funktioniert wegen der frustrierendlähmenden Wirkung wuchernder Systeme nur bei stärkster Eigenmotiva‐ tion, und die kann nicht befohlen werden. Nur jene Teams arbeiten wirklich schöpferisch, in denen jedes Mitglied über eine starke Eigenmotivation verfügt, gekoppelt mit der Achtung vor der Arbeit aller anderen Teammit‐ glieder. Wichtig ist, dass es der Leiter des Teams oder ein entsprechend befähigtes Teammitglied versteht, alle anderen zu motivieren. Die Arbeit sollte interessant und spannend sein. Bereits die gemeinsam gewonnenen Zwischenergebnisse sollten Freude bereiten. Ein solches Team wird unsinnige Papier-Spielereien in den eigenen Reihen garantiert unterlassen. Ferner sollte die - ideelle wie materielle - persönliche Motivation stets mit der tiefen Überzeugung vom Eigenwert schöpferischer Tätigkeit einhergehen. Dies aber heißt, sich durch das völlige Unverständnis für kreative Arbeit, ebenso durch die Missgunst der Nicht‐ kreativen, nicht beeinflussen zu lassen. Unter solchen Voraussetzungen ist das vermeintlich teuflische Problem tatsächlich lösbar: „Zeit ist kein Problem. Das Problem ist, was wir mit der Zeit anfangen“ (Gilde 1985, S.14). Fragen wir uns nunmehr, welche weiteren Faktoren in der Arbeitsumgebung des Kreativen nützlich bzw. schädlich sein können. Auch diese Aufzählung erhebt keinen Anspruch auf Vollständigkeit. Individuelle Besonderheiten können zudem dazu führen, dass Stressfaktoren, obzwar „klassisch“ ein Hemmnis, als Ansporn empfunden werden. Jedenfalls sollten, ausgehend von den Ergebnissen der hirnphysiologi‐ schen und psychologischen Forschung, folgende Gesichtspunkte zur Unter‐ stützung des schöpferischen Arbeitens beachtet werden: ■ Negativ-Emotionen sind nach Möglichkeit zu vermeiden. ■ Es ist eine gewisse Sicherheit gegen unnötigen Zeitdruck zu schaffen. „Faulheit“ kann manchmal auch die äußere Erscheinungsform der 30 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="31"?> schöpferischen Phase sein. Hektik ist nicht unbedingt ein Zeichen für Kreativität. ■ Gesetz der Interaktion: Nicht jeder kann mit jedem! ! ■ Eigenmotivation geht vor Fremdmotivation. Was mich wirklich interes‐ siert, bearbeite ich mit ganzer Leidenschaft. Was mir ein muffliger Chef ohne einleuchtende Erklärung bzw. Begründung befiehlt, motiviert mich kaum. Manche Unternehmen haben das erkannt, und sie gestatten ihren Forschern, bis zu 15 % der Arbeitszeit für selbst gewählte Themen zu verwenden. Geschieht das illegal, so wird es als „bootlegging“ (U- Boot-Forschung) bezeichnet. So manche Firma hat schon - zähneknir‐ schend - eingestehen müssen, dass die im Rahmen der mehr oder minder geduldeten „Hobbyforschung“ erzielten Ergebnisse wertvoller als die geplanten waren. ■ Wird nur getadelt, so siegen die Negativ-Emotionen, und die kreative Arbeit wird - mehr oder minder vollständig - eingestellt. ■ Eine ausschließlich auf brave Pflichterfüllung, Ausführen von Anwei‐ sungen und Nachplappern getrimmte Gruppe verfällt, Individuum für Individuum, auf den Ausweg der „Inneren Kündigung“. Es wird nur noch Dienst nach Vorschrift gemacht, zu allem „Ja“ und „Amen“ gesagt, Kompetenzen werden nicht mehr ausgeschöpft, Gängeleien widerspruchslos hingenommen. Mit dem Schöpfertum ist es unter solchen Umständen alsbald gänzlich vorbei. ■ 60 % positive Rückkopplung sind wünschenswert. Übersteigt die Mis‐ serfolgsrate auf Dauer 40 %, so wird das schöpferische Interesse lahm‐ gelegt. Das heißt natürlich nicht, dass der Naturwissenschaftler die Versuchsergebnisse im Interesse seiner zarten Seele „hinbiegen“ muss bzw. darf. Überdies haben starke Naturen immer wieder, und dies über längere Zeiträume, höhere Misserfolgsraten hingenommen, ohne aufzugeben. ■ Es ist ein minimaler positiver Tonus der Emotionen zu schaffen. Wer immer nur meckert, ohne Auswege zu zeigen, vergiftet das kreative Klima in einer Gruppe: „Keine Negation ohne darauf folgende Konstruk‐ tion“ (Zwicky 1971, S. 211) ■ Mehr als 45 Minuten ununterbrochenen Informationsbombardements hält kein Mensch aus. Wechsel zwischen aktiver und passiver geistiger Tätigkeit ist dringend anzuraten. 31 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="32"?> ■ Lieber denken als nur reden bzw. hören. Insbesondere gilt es, sachbe‐ zogen zu sprechen und die Hörer nicht zu nerven: Referent, werde wesentlich! ■ Entspannungsübungen sind kein esoterischer Firlefanz. Schöpferische Unruhe ist notwendig, sie sollte aber nicht mit Hektik bzw. ständiger innerer (Ver-)Spannung verwechselt werden. ■ Erwartungshaltungen sollten realistisch sein. Wer heute über Dinge nachdenkt, die vielleicht in 300 Jahren von Bedeutung sein könnten, ist vielleicht ein Genie, kaum aber ein erfolgreicher Kreativer. Dennoch sind, wie uns die einschlägig tätigen Autoren versichern, Visionen gefragt. Wir sollten aber bedenken, dass dieses viel strapazierte Mode‐ wort noch vor wenigen Jahrzehnten im Wörterbuch nur im Sinne von Wahnvorstellungen zu finden war: „Wer Visionen hat, sollte zum Arzt gehen“ (Helmut Schmidt). Ein ganz spezielles Thema, das wir besser nicht vertiefen wollen, ist die Einschätzung des Hochkreativen in der Öffentlichkeit. Sie reicht vom völligen Unverständnis bezüglich seiner Besonderheiten über das Etikett „Spinner“ bis hin zu rückhaltloser Bewunderung, gekoppelt mit höchsten Erwartungen - oft alles völlig irrational miteinander vermengt. Da aber wohl fast jeder Mensch mehr oder minder kreative Elemente in sich trägt (F. Zwicky schrieb sogar: „Jeder ein Genie“ (1971)), glaube ich, dass die hier versuchte Charakterisierung des Kreativen kaum missverständlich sein dürfte. Sie wird dem Leser beim Auffinden seiner Stärken und beim Trainieren spezieller Fähigkeiten helfen. Wenn ich bisher sehr oft vom „Kreativen“, kaum aber vom „Erfinder“ gesprochen habe, so hat dies seinen Grund. Erfinder ist nicht gleich Erfinder. Auch wenn es schmerzt: Nicht alle Erfinder sind kreativ. Es gibt eben auch so genannte Patentjäger, die sich darauf spezialisiert haben, winzige - schutz‐ rechtlich gerade noch interessante - Lücken in den Patenten der Konkurrenz aufzuspüren, und dort eigene Patente anzumelden. Mit Kreativität hat diese Vorgehensweise wenig zu tun; es genügt genaueste Literaturkenntnis und ausgebuffte Schlitzohrigkeit. Das Niveau solcher „Erfindungen“ liegt oft im Grenzbereich der Patentier‐ barkeit; jedoch können einmal erteilte Schutzrechte dieser Art für den Autor des damit umgangenen Patentes, den eigentlichen Erfinder, sehr schädlich (manchmal Existenz bedrohend) sein. 32 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="33"?> Ich möchte meinen Lesern deshalb bevorzugt jene Kenntnisse, Fertig‐ keiten und Erfahrungen nahebringen, die für das Erarbeiten hochwertiger Erfindungen erforderlich sind. Der Begriff der dabei anzustrebenden „Erfin‐ dungshöhe“ wird noch mehrfach im Buch auftauchen. Er steht für Lösungen, die hinreichend ungewöhnlich sind, an deren erfinderischem Niveau - ihrer „Schutzwürdigkeit“ - kein Zweifel besteht. 33 2 Außerhalb der Routine: Kreatives Denken und Arbeiten <?page no="35"?> 3 Methoden und Praxisempfehlungen 3.1 Die wichtigsten Kreativitätstechniken In der Literatur werden Dutzende, unter Berücksichtigung aller Sonderfor‐ men und Varietäten sogar Hunderte von Kreativitätsmethoden behandelt. Es ist nicht Anliegen dieses Buches, all diese Methoden zu referieren und zu bewerten. Vielmehr stelle ich hier den methodischen Extrakt dar, für den Praktiker aufbereitet und mit nachprüfbaren Quellenangaben versehen. In den folgenden Abschnitten 3.1.1 und 3.1.2 wollen wir deshalb nur die wichtigsten Methoden besprechen, insbesondere auch, um den Zusammen‐ hang mit den im 4. Kapitel abgehandelten Strategien und Empfehlungen darzustellen, bzw. deren Herkunft zu erklären. 3.1.1 Herkömmliche Methoden Sehen wir uns zunächst die älteste, auch heute noch am weitesten verbreitete Methode an. Versuch und Irrtum („Trial and Error“) beruht auf dem gedank‐ lichen Herumprobieren. Dem Kreativen kommt spontan eine Idee: „Wie wäre es, wenn ich es einmal so versuche? “. Es folgt die theoretische und/ oder praktische Überprüfung - und die Idee erweist sich meist als untauglich. Ein berühmter Chemiker sagte einmal: „Ideen sind überhaupt kein Problem. Ich habe jeden Tag mindestens hundert. Dann gehe ich ins Labor - und sie funktionieren alle nicht“. Folglich wird nun in einer anderen Richtung eine neue Idee gesucht, gefunden, erprobt, verworfen - und der Zyklus beginnt abermals (Abb. 1). Hauptmangel des Vorgehens ist, dass sehr viele Spontanideen entstehen, welche überwiegend in Richtung des „Trägheitsvektors“ liegen. Dieser Vektor charakterisiert gewissermaßen die Richtung des geringsten Widerstandes. Der Mensch ist denkträge; auch der Kreative produziert nicht pausenlos überraschende Lösungen. So wird die konventionelle Denkrichtung be‐ vorzugt. Abb. 1 zeigt aber, dass gerade dort die Wahrscheinlichkeit am geringsten ist, auf die Lösung zu treffen. Dennoch ist Versuch und Irrtum auch heute noch die von den meisten Menschen favorisierte Methode. Viele kennen überhaupt nur diese Vorgehensweise. Von sehr fleißigen Menschen <?page no="36"?> angewandt, liefert sie zudem Ergebnisse, die ein systematisches Vorgehen als nicht unbedingt notwendig erscheinen lassen. Hinzu kommt, dass der Prozess in der Praxis nicht ganz so unbefriedigend, wie in Abb.1 dargestellt, verläuft: Dokumentvorlage • Narr Verlage | A 3.3 26 lassen. Hinzu kommt, dass der Prozess in der Praxis nicht ganz so unbefriedigend, wie in Abb.1 dargestellt, verläuft: ((Abbildungslegenden wiederherstellen; in reinen Text gewandelt wegen Registereinträgen)) 1 2 TV Lösung 3 A Abb. 1 Schematische Darstellung des Verlaufs der Methode „Versuch und Irrtum“ (nach: G.S. Altschuller 1973, S. 17) A: Aufgabe. Die Lösung des Problems liegt fast nie in Richtung des Trägheitsvektors TV, so dass auch die Sekundär-Ideen (1, 2) nichts nützen. Nur wenige der Ideen gehen in Richtung Lösung, ein möglicher Treffer wäre rein zufällig . Das konventionelle Denken veranlasst die meisten Menschen, das zu denken, was andere vor ihnen auch schon gedacht haben. Die so gewonnenen Ideen sind überwiegend banal. Abb. 1 Schematische Darstellung des Verlaufs der Methode „Versuch und Irrtum“ (nach: G.S. Altschuller 1973, S. 17) A: Aufgabe. Die Lösung des Problems liegt fast nie in Richtung des Trägheitsvektors TV, so dass auch die Sekundär-Ideen (1, 2) nichts nützen. Nur wenige der Ideen gehen in Richtung Lösung, ein möglicher Treffer wäre rein zufällig. Das konventionelle Denken veranlasst die meisten Menschen, das zu denken, was andere vor ihnen auch schon gedacht haben. Die so gewonnenen Ideen sind überwiegend banal. 36 3 Methoden und Praxisempfehlungen <?page no="37"?> Jeder Fehlversuch ist mit einem Lernprozess verknüpft, und so kann ein Teil der prinzipiell möglichen weiteren Versuche - wegen vorhersehbarer Erfolglosigkeit - weggelassen werden. Dennoch stehen Aufwand und Nut‐ zen in keinem vernünftigen Verhältnis zueinander. Ein wenig vorteilhafter verläuft das so genannte Brainstorming, im deutschen Sprachraum manchmal auch als Ideenkonferenz bezeichnet. Zwar entsteht jede Idee zunächst in einem Kopf, jedoch potenziert die Mitarbeit kreativer Menschen günstigen Falles Menge und Qualität der Ideen. Alex Osborn (1953) erkannte, dass es nicht wenige Menschen gibt, die im Team ohne Schwierigkeiten zahlreiche Ideen produzieren können. Osborn führte zwei Grundregeln ein, die noch heute gelten, und die dennoch bei den üblichen Brainstorming-Veranstaltungen meist missachtet werden. Die erste Regel besagt, dass Kritik in der primären (Ideen erzeugenden) Phase streng verboten ist. Die zweite Regel besagt, dass Ideenerzeugung und Ideenauswahl strikt voneinander zu trennen sind (zeitlich, und - falls es sich ermöglichen lässt - auch personell). Osborn hat ferner als Hilfsmittel für die Bewertungsphase Spornfragen eingeführt, mit deren Hilfe jede der betrachteten Ideen modifiziert werden kann: Größer? Kleiner? Umgruppieren? Kombinieren? Umkehren? Ersetzen? Zweckentfremden? Nachahmen? Das Prinzip der Ideensuche unterscheidet sich allerdings nicht wesent‐ lich von der in Abb. 1 dargestellten Vorgehensweise, nur entstehen gewöhnlich beim Brainstorming nicht ganz so viele banale Ideen in Richtung des Trägheitsvektors. Auch nimmt die Zahl der Sekundärideen (Verzweigungen in Abb. 1) zu, denn die wechselseitige Anregung der Teilnehmer wirkt sich auf die primär geäußerten Ideen im Sinne eines „Schneeball“-Effektes aus. Dennoch arbeitet die Methode, auch bei sach‐ gerechter Durchführung unter Leitung eines Moderators, unbefriedigend. Wo die Lösung eigentlich zu suchen ist, bleibt offen, und das Vorgehen beruht auch nur auf „Masse statt Klasse“, gekoppelt mit der Hoffnung, dass in der Phase der Auswahl bzw. Bewertung sich schon etwas Brauchbares finden wird. Das „Suchen ohne Verstand“ (Altschuller 1973, S. 36) wird gewissermaßen zum Prinzip erhoben. Eine wesentlich wirksamere Methode ist die Morphologie. Das Wort geht auf Goethe zurück und steht für „Gestaltlehre“ im Sinne der Lehre von den Erscheinungsformen einer Sache. Die Morphologie im heutigen Sinne wurde von Zwicky (1966) umfassend entwickelt und von Zwickys Schülern Holliger-Uebersax sowie Bisang zu hoher Vollendung gebracht (Holliger- 37 3.1 Die wichtigsten Kreativitätstechniken <?page no="38"?> Uebersax 1989). Ein auch ohne nähere Kenntnis der Gesamtmethode recht nützliches Werkzeug ist die Morphologische Tabelle. Auf der Ordinate werden zunächst die Variablen (Parameter, Ordnende Gesichtspunkte) des Systems aufgetragen, neben jeder Variablen dann die bekannten bzw. denkbaren Varianten (Ausführungsformen). Variable Variante 1 Variante 2 Variante 3 Variante 4 Variante 5 Vari‐ ante 6 Ort Arbeits‐ platz Museum Nächtli‐ che Straße Bunga‐ low Auto Hotel Titelheld Lehrer Kommis‐ sar Student Arbeiter Direktor Arzt Opfer Ehefrau Ehemann Chef Hand‐ werker Gastwirt Wissenschaftler Mörder Strafge‐ fangener Sekretä‐ rin Neuroti‐ ker Titelheld Gangs‐ terbande Hooli‐ gan Todesur‐ sache Selbst‐ mord Provo‐ zierter Unfall Erschie‐ ßen Erhängen Gift Nicht feststellbar Motiv, Auslöser Eifer‐ sucht Betrun‐ ken Geld Mitwis‐ ser besei‐ tigen Trieb (Neuroti‐ ker) Un‐ glückl. Zufall Aufde‐ ckung Geständ‐ nis Indizien Zufall Kripo- Logik Nie auf‐ geklärt Geheimpapiere Schluss des Kri‐ mis Heirat Offener Schluss Held wie‐ der ge‐ sund vermisste Leiche gefunden Mörder wird schließ‐ lich geheilt Mörder geht ab ins Ge‐ fängnis Tab. 1 Morphologische Tabelle als Orientierungshilfe für Krimiautoren (Gutzer 1978) Die Tabelle listet so für das jeweils betrachtete Objekt bzw. Verfahren alle vielleicht interessanten Varianten-Kombinationen auf und gestattet die Verbindung jedes einzelnen Tabellenplatzes mit jedem anderen Tabel‐ lenplatz. Die Morphologische Tabelle lässt sich nicht nur für technische, sondern auch für beliebige nicht-technische Zwecke anwenden. Tab. 1 zeigt 38 3 Methoden und Praxisempfehlungen <?page no="39"?> ein Beispiel: Auch Krimi-Autoren sind nicht pausenlos kreativ, und so können beispielsweise auch sie beim „Konstruieren“ ihres neuesten Werkes durchaus profitieren (nach: Gutzer 1978): Sinnvoll könnten beispielsweise folgende Verbindungslinien sein: Nächt‐ liche Straße - Kommissar - Handwerker - Gangsterbande - provozierter Unfall - Mitwisser beseitigen - Kripo-Logik - Mörder ab ins Gefängnis. Die Morphologische Tabelle hat den großen Vorteil, recht übersichtlich zu sein, und die gegebenen Möglichkeiten - praktikable neben vielen unsinni‐ gen - umfassend darzustellen. Eine Anleitung zur Ermittlung der jeweils besten Kombination liefert sie nicht. Hier ist, wie beim Brainstorming, die stets subjektive Auswahl durch den Nutzer gefragt. Besonders verlockend ist die Bionik, die Lehre von der Übertragbarkeit in der Natur zu beobachtender Form- und Funktions-Prinzipien auf technische Systeme. Pionierarbeit hat Rechenberg mit seinem Klassiker „Optimierung technischer Systeme nach Prinzipien der biologischen Evolution“ geleistet (Rechenberg 1973). Abb. 2 zeigt uns die Analogien zwischen Kamera, menschlichem Auge und Fischauge. Wie bei vielen bionischen Beispielen, haben wir es hier nicht mit direkten, sondern sinngemäßen Analogien zu tun. Wenn eine starre Linse zur lichtempfindlichen Schicht hin verschoben wird (Kamera), oder eine flexible Linse zwecks Scharfstellung verschieden weit entfernter Objekte unterschiedlich stark gekrümmt wird (menschliches Auge), so ist dies aus physikalischer Sicht zwar nicht identisch, jedoch immerhin - bezogen auf die gewünschte Wirkung - analog. Eine besonders praxisorientierte und sehr zu empfehlende Publikation arbeitet mit Struktur-Katalogen, welche die im jeweiligen konkreten Fall zu prüfenden Analogien direkt zugänglich machen (Hill 1999). Das umfangreiche Buch von Nachtigall und Blüchel (2000) bietet, ganz abgesehen vom fachlichen Gehalt, mit seinen prächtigen Farbfotos einen ästhetisch hochgradigen Genuss. Das Einsatzgebiet der Bionik ist auf die - wenn auch durchaus nicht seltenen - Fälle begrenzt, in denen Analogien zu natürlichen Vorbildern für technische Zwecke nützlich sind. 39 3.1 Die wichtigsten Kreativitätstechniken <?page no="40"?> Abb. 2 Die (nur unvollkommenen) Analogien zwischen Kamera, menschlichem Auge und Fischauge (nach: Greguss 1988, S. 127) Oben: Kamera Zum Scharfeinstellen eines Objekts wird das Objektiv gegenüber dem Film verschoben. Mitte: Menschliches Auge Die Linse wird zum Zwecke der Anpassung an verschieden weit entfernte Objekte mit Hilfe des Ciliarmuskels so gekrümmt, dass auf der Netzhaut scharfe Bilder entstehen. Unten: Fischauge Das Fischauge hat eine Kugellinse. Scharf sieht ein Fisch gewöhnlich nur im Nahbereich. Will er entferntere Objekte erkennen, zieht er die Linse etwas nach hinten. Deckungsgleiche Übertragungen sollten, schon wegen der in Natur und Technik oftmals recht unterschiedlichen Materialien, vermieden werden. Auch gibt es Fälle, in denen natürliche Muster unvorteilhafter sind als rein technisch entstandene Lösungen für den gleichen Zweck. So arbeitet der Rasenmäher völlig anders als der Schnitter mit der Sense. Ein vom Menschen 40 3 Methoden und Praxisempfehlungen <?page no="41"?> betriebenes Schwingenflugzeug wird es wohl nie geben. Vögel und Insekten sind außerordentlich erfolgreiche Flieger; menschliche Muskeln sind für das Fliegen jedoch zu schwach. Eine nicht nur für erfinderische Zwecke geeignete Methode, deren Kernge‐ danke das systematische Analogisieren ist, wurde von Gordon (1961) auf der Grundlage intensiver Studien des Denk- und Problemlöseprozesses entwi‐ ckelt. Gordon nannte seine Methode „synectics“ (sehr frei etwa: „Lehre vom Zusammenhang“). In gewisser Hinsicht kann die Synektik als wesentlich erweitere Bionik betrachtet werden. Sie enthält allerdings einige befremdlich anmutende Elemente, die nicht jedermanns Sache sein dürften. Bei korrekter Durchführung arbeitet die synektische Methode in folgenden Stufen: ■ Problemanalyse und Problemdefinition, spontane Lösungen ■ Neu definiertes Problem (Neuformulierung) ■ Direkte Analogien zum Problem (z. B. aus der Natur) ■ Persönliche Analogien (wie fühle ich mich selbst, wenn ich mich kör‐ perlich mit dem Problem identifiziere: z. B. als Stuntman, der bei 150 km/ h aus einem Zug in einen parallel zu ihm fahrenden, gleich schnellen Zug umsteigt) ■ Symbolische Analogien (Analogien, die sich anscheinend noch weiter vom Thema entfernen, die aber durchaus den Kern treffen: Der o. a. Stuntman z. B. nutzt hier den „Rasenden Stillstand“) ■ Direkte Analogien aus der Technik (statt „Rasender Stillstand“ nunmehr „Geschwindigkeitssynchronisation“) ■ Analyse der direkten Analogien, Auswahl ■ Übertragung auf das Problem, Entwicklung konkreter Lösungsideen. Wenn also z. B. ein Verschleißteil bei einer Werkzeugmaschine - um das lästige Abbremsen und Wiederanfahren einzusparen - in vollem Betrieb ausgewechselt werden soll, hilft uns das Bild von dem Stuntman bzw. dem von ihm genutzten „Rasenden Stillstand“ durchaus weiter: Wir sollten das verschlissene Teil bei hohen Touren wohl entkoppeln und ausschleusen, anschließend offenbar das Ersatzteil vortouren, und sodann bei der Relativgeschwindigkeit Null einkoppeln. H.-J. Rindfleisch ist entsprechend vorgegangen und hat ein „Verfahren und eine Vorrichtung für einen automatischen Schleifkörperwechsel“ - gewissermaßen „in voller Fahrt“ - entwickelt (Rindfleisch u. Berger, Pat. 1983/ 1988). 41 3.1 Die wichtigsten Kreativitätstechniken <?page no="42"?> Das synektische Verfahren beginnt mit einem gewöhnlichen Brainstorming. Jedoch wird bereits in der zweiten Stufe das Problem neu definiert und damit der zu durchforstende Suchraum sinnvoll eingeengt. Es folgen die direkten - meist bionischen - Analogien zum neu definierten Problem. Die nunmehr zu suchenden Persönlichen Analogien sind, wie gesagt, nicht jedermanns Sache. Sie erfordern „Empathie“, d. h. hier: direktes, gewissermaßen körperliches Einfühlen in eine meist recht technische Situation. Eine sehr hohe Abstraktionsstufe wird schließlich mit der Symbolischen Analogie erreicht: Sie liefert den Schlüssel zum physikalischen Sachverhalt und ermöglicht - über diesen zunächst exotisch erscheinenden Umweg - die technische Prinziplösung. Das synektische Vorgehen ist recht aufwändig. Es erfordert neben einem fähigen und mit der Methode völlig vertrauten Moderator ein Team, welches sich auf die z. T. etwas skurrilen Arbeitsschritte einlässt, und methodisch diszipliniert zu arbeiten vermag. Die Synektik ist für schwierigere Aufgaben sinnvoll, da sie die Brücke zwischen Logik und Intuition schlägt und das unsystematische „Herumpröbeln“ (Versuch und Irrtum) durch ein struktu‐ riertes Vorgehen ersetzt. Während Morphologie, Bionik und Synektik bereits Methoden sind, die nach einem bestimmten System arbeiten, und damit dem spontanen Brain‐ storming überlegen sind, gehören zu den klassischen Kreativitätsmethoden auch noch solche, die mehr oder minder auf Intuition bauen bzw. auf freier Assoziation beruhen. Als Beispiele seien die Semantische Intuition und die Visuelle Konfrontation genannt. Bei der Semantischen Intuition wird mit dem Phänomen gearbeitet, dass das Hören oder Lesen eines Begriffs unserer Sprache gleichzeitig und intuitiv eine mehr oder weniger plastische gedankliche Vorstellung über das Wesen dieses Begriffs hervorruft (Schlicksupp 1983). Höre ich beispielsweise das Wort „Walzwerk“, so bleibt es nicht bei der rein akustischen Wahrneh‐ mung, sondern ich stelle mir unwillkürlich die komplexen Situationen und Arbeitsabläufe vor, wie sie auf dem berühmten Gemälde von A. v. Menzel dargestellt sind. Diese Wirkung „Begriff wahrnehmen - bildhafte Vorstellung entwickeln“ funktioniert auch bei neuartigen Begriffen und Begriffskombinationen. Besonders vorteilhaft sind Begriffspaare, bei denen die eine Gruppe von Begriffen völlig zufällig gewählt wird, die andere Gruppe hingegen direkt aus dem bearbeiteten Interessengebiet stammt. Schlicksupp (1983) veröffentlichte dazu überzeugende, die Entwicklung neuartiger Küchengeräte betreffende Beispiele. 42 3 Methoden und Praxisempfehlungen <?page no="43"?> In einfacheren Fällen, wie bei der Suche nach „gadgets“ oder Produkt‐ varianten, kann ein solches Vorgehen - den Hang des Menschen zum spielerischen Denken nutzend - sinnvoll sein. Für das Lösen komplizierterer Aufgaben sollte man sich jedoch nicht, zumindest nicht allein, auf solch zufällig induzierte Gedankenverbindungen verlassen. Anspruchsvoller arbeitet die Methode der Visuellen Konfrontation. Sie nutzt die Erkenntnis, dass fast alle Menschen (≥ 80 %) dem „Visuellen Typ“ angehören, und folglich durch geschickt eingesetzte Bilder zu neuen Ideen geführt werden können. Wesentlich ist eine bewusst eingefügte - ebenfalls mit Bildern unterstützte - Entspannungsphase. Diese interessante Methode wurde von Geschka (1994) entwickelt und in die Kreativitätslehre eingeführt. Sie wird z. B. zum Generieren von Produktideen erfolgreich eingesetzt. Ihre wesentlichen Schritte sind: ■ Erläuterung des Problems durch den Moderator. Problemdiskussion. Problemanalyse in der Gruppe. Präzisierung der Problemformulierung. ■ Schnelle Produktion von Spontanideen gemäß Phase I eines gewöhn‐ lichen Brainstormings. Dokumentationsmittel: Flipchart. Diese Phase befreit das Hirn von konventionellen Ideen („purge“) und macht es aufnahmefähig für neue Aspekte. ■ Durchsicht der Ideen und eventuelle Neuformulierung des Problems. ■ Entspannungs- und Dissoziationsphase. Es werden etwa fünf Bilder projiziert, die mit dem Problem gar nichts zu tun haben, z. B. wun‐ derschöne Landschaften, optisch eindrucksvolle jahreszeitliche Phäno‐ mene. Dazu erklingt sanfte Musik. Die Teilnehmer entspannen sich, schalten ab, und vergessen gleichsam das Problem. ■ Nun folgen sechs bis acht Bilder, welche (direkt oder indirekt) Assozia‐ tionsmaterial zum Problem liefern. Ein Teilnehmer schildert möglichst genau, was auf dem jeweils gezeigten Bild zu sehen ist. Die nunmehr entstehenden Ideen der Teilnehmer werden ebenfalls per Flipchart festgehalten. Erfahrungsgemäß sind die Ideen nun konkreter, sachbe‐ zogener, gehen über die Spontanideen der ersten Phase weit hinaus. Bisher inaktive Teilnehmer werden aktiviert. ■ Ideenausgestaltung, Ideenauswahl, Ideenbewertung. ■ Hochwertige Ideen sind oftmals vage und bedürfen der Konkretisie‐ rung. Die Ideen sind zu bewerten, ggf. weiterzuentwickeln und auf Verwendbarkeit zu untersuchen (Geschka 1994, S. 153). 43 3.1 Die wichtigsten Kreativitätstechniken <?page no="44"?> Das beschriebene Vorgehen ist bei der Suche nach neuen Produktideen recht nützlich; es erreicht aber aus naheliegenden Gründen seine Grenzen, falls anspruchsvollere Verfahrensentwicklungen - insbesondere solche komple‐ xer Art - angestrebt werden. Die hier nur kurz erläuterten „klassischen“ Kreativitätsmethoden stellen eine sehr begrenzte Auswahl dar. Es ist - dem Anliegen meines Buches entsprechend - weder sinnvoll noch möglich, eine komplette Darstellung aller Methoden zu liefern. Gleiches gilt für das Zitieren der umfangreichen Literatur zum Thema. Interessierte seien auf die ältere, gut gegliederte Methodenübersicht von Schlicksupp (1983) sowie eine wichtige Arbeit von Geschka (2003) verwiesen. Für weniger sinnvoll halte ich das Vorgehen von Schnetzler (2004). Sie beschreibt ein mit zahlreichen Mitarbeitern betriebe‐ nes Brainstorming. Ihr rein formales Mantra („Beschaffen - Verdichten - Entscheiden“) läuft auf das Sammeln einer Vielzahl von Ideen hinaus. Klasse soll so durch Masse ersetzt werden; die Suche nach dem „Goldkörnchen“ erfolgt bei Schnetzler zudem recht subjektiv. Gadgets und modische Artikel mögen so zugänglich sein, niemals jedoch hochwertige Erfindungen. 3.1.2 Moderne widerspruchsorientierte Methoden Wir haben im vorangegangenen Abschnitt einige Methoden kennengelernt, die einzelne Aspekte des technisch-kreativen Denkens und Handelns be‐ sonders betonen. Im systematischen Sinne sind aber weder Bionik noch Synektik noch Morphologie (vom Brainstorming zu schweigen) umfassende Methoden. Sie betreffen jeweils nur mehr oder minder wichtige Teile des Problemlösungsprozesses. Die wenigstens annähernde Sicherheit, mit Hilfe eines „Leitstrahls“ von der Aufgabe in Richtung einer guten bis sehr guten Lösung vorzustoßen, bieten sie jedoch nicht. Wünschenswert wäre aber gerade eine solche Methode. Diesen hohen Anforderungen am nächsten kommt heute der komplexe Ablaufplan ARIZ (Abkürzung für russ.: „Algoritm reshenija izobretatjelskich zadač“, entspr. „Algorithmus zum Lösen erfinderischer Aufgaben“; russ. Abkürzung „ARIZ“, bzw. auch „ARIS“, je nach Transkription des russischen Wortes für „Aufgabe“: „zadača“ bzw. „sadača“) nach G. S. Altschuller, mit dem wir uns nunmehr befassen wollen. Der von Altschuller ganz bewusst verwendete Terminus „Algoritm“ ist allerdings ein wenig irreführend. Im mathematischen Sinne handelt es sich nicht um einen echten Algorithmus, denn ein solcher müsste ja mit absoluter 44 3 Methoden und Praxisempfehlungen <?page no="45"?> Folgerichtigkeit durch schematisches Abarbeiten einer Handlungsfolge zum garantierten Ergebnis führen, und damit wäre das kreative Handeln über‐ flüssig geworden. Immerhin ist die Methode durch quasi-algorithmische Schritte gekennzeichnet, welche die Erfolgschancen derart wesentlich erhö‐ hen, dass die von Altschuller gewählte - sehr selbstbewusste -Terminologie nicht mehr übertrieben erscheint. Der ARIZ ist wichtiger Bestandteil der von G.S. Altschuller geschaffenen umfassenden Erfindungstheorie TRIZ (russ.: „Teorija reshenija izobretatjels‐ kich zadač“; entspr.: „Theorie zum Lösen erfinderischer Aufgaben“). TRIZ, im Deutschen gesprochen etwa wie die Pluralform des englischen Wortes für Baum („trees“), ist übrigens auch die Basis moderner Programme zum computergestützten Erfinden, die von Altschullers Schülern in den letzten Jahren entwickelt wurden. Insbesondere zu den modernen Ausprägungen der TRIZ existiert inzwischen eine reichhaltige Literatur, deren Behandlung und umfassende Würdigung den Rahmen des vorliegenden Buches sprengen würde. Exemplarisch sei nur auf einige dieser Werke verwiesen: TRIZ - Der Weg zum konkurrenzlosen Erfolgsprodukt (Terninko, Zusman u. Zlotin, Hrsg. Herb 1998), TRIZ - Der systematische Weg zur Innovation (Herb, Herb u. Kohnhauser 2000), Grundlagen der klassischen TRIZ (Orloff 2002), Systematisches Erfinden (Zobel 2019) sowie TRIZ FÜR ALLE (Zobel 2020). Neues zur Methode wird auch in der Internet-Zeitschrift LIFIS ONLINE des Leibniz-Instituts für Interdisziplinäre Studien e. V. (LIFIS) unter der Betreuung ihres verdienstvollen Chefredakteurs H.-G. Gräbe publiziert (ww w.lifis-online.de). Kommen wir zu den zentralen Aussagen des im Vergleich zu den bishe‐ rigen Methoden geradezu revolutionären Altschullerschen Denkmodells. Altschuller befasste sich zunächst „nur“ mit der rein technischen, d. h. der erfinderischen Kreativität. Deshalb wird in diesem Abschnitt überwiegend der Terminus „erfinderisch“ verwendet, obwohl sich inzwischen herausge‐ stellt hat, dass TRIZ nicht nur für rein technisch-erfinderische Aufgaben eine hervorragende Kreativitätsmethode ist. Der idealisierte Zielpunkt des erfinderischen Bemühens wird von Alt‐ schuller „Ideale Maschine“ (Altschuller 1973), in allen neueren Veröffentli‐ chungen umfassender und zutreffender „Ideales Endergebnis“ (Altschuller 1983, 1984) genannt. Beim Idealen Endergebnis (dem „Idealen Endresultat“, „IER“) handelt es sich um eine methodisch recht vorteilhafte Hilfskonstruk‐ tion, die den Erfinder davon abhält, irgendwelche Primitivlösungen im 45 3.1 Die wichtigsten Kreativitätstechniken <?page no="46"?> Ergebnis jener Spontanideen anzusteuern, an denen es uns bekanntlich niemals mangelt: Merke: Die erstbeste Idee ist fast nie die beste Idee (! ) Das IER ist ein Leitbild, das niemals vollständig erreichbar, dessen weitge‐ hende Realisierung jedoch erstrebenswert, und das näherungsweise durch‐ aus erreichbar ist: „Die Ideale Maschine ist ein Eichmuster, das über folgende Besonderheiten verfügt: Masse, Volumen und Fläche des Objekts, mit dem die Maschine arbeitet (z. B. transportiert, bearbeitet), stimmen ganz oder fast vollständig überein mit Masse, Volumen und Fläche der Maschine selbst. Die Maschine ist nicht Selbstzweck. Sie ist nur das Mittel zur Durchführung einer bestimmten Arbeit“ (Altschuller 1973, S. 70). Demnach ist die „Ideale Maschine“ eine solche, die ihre Funktion erfüllt, aber eigentlich als Maschine gar nicht mehr da ist („Maschine“ sei hier als Synonym auch für „Verfahren“ oder „Prozess“ verwendet). Diese Formu‐ lierung erscheint recht kühn, aber wir werden in den Folgekapiteln noch Verfahren kennenlernen, die (fast) von selbst funktionieren und sich somit weitgehend dem zunächst unerreichbar erscheinenden Ideal nähern. Das grundsätzliche Problem ist nun, dass wir zunächst nicht wissen, wo wir das Ideal zu suchen haben. Nach allgemeinem Verständnis sind schöpferische Aufgaben ja gerade nicht durch schematisches Handeln, sondern nur durch divergentes - d. h. nach allen Richtungen zielendes - Denken zu bewältigen. Routineaufgaben hingegen sind dadurch gekennzeichnet, dass nur eine Lösung infrage kommt, und diese ist durch Lehrbuchwissen zugänglich. Der entscheidende Unterschied ist nun, dass beim kreativen (divergenten) Denken für die Lösung eines Problems stets mehrere (durchaus nicht immer banale, jedenfalls nicht im Sinne einer Vorschrift sofort zugängliche) Mög‐ lichkeiten infrage kommen. Genau dies verleitet zunächst zu der Annahme, man müsse gemäß Abb. 1 nur heftig genug nach allen Seiten denken, um irgendwann einmal Erfolg zu haben. Die Schwierigkeit liegt aber darin, dass wir ohne methodisches Herangehen überwiegend nur triviale, konventio‐ nelle Lösungsvorschläge produzieren, geschuldet dem bereits erläuterten Wirken des so genannten Trägheitsvektors (Abb. 1). Was wir ganz offensichtlich benötigen, zeigt Abb. 3. Gefragt ist eine Vorbestimmung der Richtung, in der das anzusteuernde Ideal liegt. Übrig 46 3 Methoden und Praxisempfehlungen <?page no="47"?> bleibt, eine qualifizierte Analyse der Aufgabe vorausgesetzt, von den 360° des Brainstormings nur noch ein vergleichsweise schmaler Suchsektor bzw. Suchkegel, innerhalb dessen mit hoher Sicherheit die Lösung zu suchen und zu finden ist. Der besondere Vorteil dieser methodischen Hilfskonstruktion besteht nun darin, dass - diszipliniertes Arbeiten vorausgesetzt - gar keine Lösungs‐ vorschläge in Richtung des Trägheitsvektors mehr vorkommen. Die Güte der realen Lösung ist dabei durch den Grad der Annäherung an das IER charakterisiert. In der Praxis können in der Nähe des IER durchaus mehrere Lösungen unterschiedlichen Annäherungsgrades erzielt werden. Dies sind dann allerdings nicht mehr irgendwelche, sondern - in physikalischer Hinsicht - hochwertige Lösungen. Abb. 3 Die wenigen hochwertigen Lösungen liegen im vom ARIZ bestimmten Suchwinkel in Richtung auf das „Ideale Endresultat“ (IER), hier gemäß Urtext „Ideale Maschine“ genannt (Altschuller 1973, S. 94). Sinnlose Versuche in Richtung des Trägheitsvektors unterbleiben vollständig. TV: Trägheitsvektor Ohne eine sehr anspruchsvolle Formulierung und methodisch sachgerechtes Handhaben des IER funktioniert das allerdings nicht. Folgende Grundregeln sind dabei zu beachten: 47 3.1 Die wichtigsten Kreativitätstechniken <?page no="48"?> ■ Das Ideale Endresultat (IER) ist möglichst abstrakt zu formulieren. Also nicht: „Mein Ideal ist ein verbesserter Filterapparat“, sondern: „Ich benötige eine klare Lösung. Falls dafür ein Prozess notwendig sein sollte, so soll er nach Möglichkeit von selbst verlaufen.“ ■ Auf keinen Fall sollten Sie bereits beim Formulieren des Ziels Kompro‐ misse und Einschränkungen dulden! ■ Nur ein hochgestecktes Ziel sichert, dass man im Bemühen, dieses Ziel zu erreichen, eine - wenigstens vergleichsweise - gute bis sehr gute Lösung erreicht. ■ Zurückstecken, falls unumgänglich, erst im Verlaufe der erfinderischen Bearbeitung der Aufgabe! Kehren wir noch einmal zu Abb. 3 zurück. Zu bedenken ist, dass nicht nur das Ideale Endresultat, sondern viel mehr noch die genaue Formulierung der zu lösenden Aufgabe von prinzipieller Bedeutung ist. Gemäß Abb. 3 wird unterstellt, die Aufgabe sei klar, eindeutig und zutreffend formuliert. Das ist jedoch gewöhnlich nicht der Fall. Erfindungsaufgaben werden häufig nicht vom Erfinder, sondern von einem Auftraggeber formuliert, wobei die Formulierung nicht selten unklar oder sogar methodisch falsch ist. Damit werden zeitaufwändige Irrwege geradezu programmiert. Schlimmer noch ist der nicht seltene Fall, dass die Arbeitsrichtung bereits definitiv festgelegt wird („Verbessern Sie diese Maschine“), z. B., weil sich der Auftraggeber dem Auftragnehmer gegenüber als guter Fachmann mit Durchblick profilieren will. Dieser ebenso häufige wie verdrießliche Fall spiegelt sich dann in einer überbestimmten - und damit „vergifteten“ - Aufgabenstellung wider. Eine derart formulierte Aufgabe lässt sich fast nie mit einem guten Ergebnis abschließen, da sie gedanklich von der derzeitigen Verfahrensweise nicht loskommt. Da aber die zu verbessernde Technik (sonst gäbe es das zu lösende Problem nicht! ) fast immer prinzipiell mangelhaft ist, muss die Aufgabe abstrakt formuliert werden. Verzichtet man auf diesen notwendigen Schritt, so verfällt man der hypnotischen Wirkung des existierenden technischen Gebildes, in der Politik wie im richtigen Leben auch „Normative Kraft des Faktischen“ genannt. Da aber das existierende technische Gebilde, das viel‐ leicht vor Jahrzehnten unter heute nicht mehr feststellbaren Bedingungen eingeführt wurde, die zu bewältigende Aufgabe nur mangelhaft löst und meist nicht mehr optimierbar ist, muss in vielen Fällen ein ganz anderes System angestrebt werden. 48 3 Methoden und Praxisempfehlungen <?page no="49"?> Somit ist eine vom Auftraggeber vorzeitig präzisierte Aufgabenstellung in den meisten Fällen für die Aufgabenbearbeitung regelrecht schädlich (des‐ halb: „vergiftet“). Ein extrem vereinfachtes Beispiel soll den Zusammenhang erläutern: Reißt beispielsweise in einem Produktionsbetrieb eine Förderschnecke (z. B. beim innerbetrieblichen Transport eines pulverförmigen Gutes) im‐ mer wieder, so lautet die Aufgabe hier nicht etwa: „Die Schnecke ist zu verstärken“, obwohl fast alle Auftraggeber die Aufgabe so oder ähnlich formulieren würden. Die eigentliche Aufgabe lautet vielmehr: „Das am Punkt A befindliche Gut wird am Punkt B benötigt.“ Erfahrene Erfinder denken wesentlich weiter und werden schnell konkret. Sie gehen im Falle unseres Beispiels etwa so vor: Förderanlagen, ganz gleich ob mechanisch oder pneumatisch, kosten Geld und arbeiten nicht störungsfrei. Daraus ergibt sich: Warum kann Punkt A nicht über Punkt B liegen, was den Einsatz einer einfachen Schurre oder eines Fallrohres möglich macht? Die Gravitation sorgt dann dafür, dass das Gut von selbst nach unten fällt. Geht es vielleicht noch einfacher? Müssen die Prozessstufen A und B zwingend auch weiterhin getrennt arbeiten? Ist eine Technologie denkbar, bei der beide Prozessstufen zusammengelegt werden können? Das hätte den Vorteil, dass ich überhaupt nichts mehr transportieren muss. Wir erkennen: Das Ideale Endresultat muss in günstigen Fällen keines‐ wegs eine Fiktion bleiben. Das IER, bezogen auf den Sachverhalt „Mangel‐ hafter Transport“ lautet nicht etwa „Perfekter Transport“, sondern „Kein Transport“. Nur mit dieser radikalen Formulierung lassen sich die (wenn auch in der Praxis vielleicht nicht häufigen) Fälle überhaupt in Erwägung ziehen, in denen auf einen Transportvorgang ganz verzichtet werden kann. In allen anderen Fällen verbleibt immerhin noch die Annäherung an das IER, nämlich der perfekte, von selbst oder fast von selbst verlaufende, störungsfreie, kostengünstige Transport zwischen den eng benachbart auf‐ zubauenden Stufen A und B. Zu Beginn der Bearbeitung ist unbedingt auf Festlegungen zu verzichten, in welcher Weise diese Ziele erreicht werden sollen. Das Beispiel zeigt auch, dass in Erweiterung des ursprünglichen Begriffs der Idealen Maschine auch von Idealen Vorrichtungen, ferner von Idealen Verfahren bzw. Idealen Prozessen, mit gewissen Einschränkungen auch von Idealen Produkten gesprochen werden kann. In diesem Sinne erfüllen nicht etwa irgendwelche „schönen“, „starken“ Maschinen, sondern viel mehr 49 3.1 Die wichtigsten Kreativitätstechniken <?page no="50"?> die auf das rein Funktionelle beschränkten Maschinen (Prozesse, Vorrich‐ tungen, Verfahren) den Anspruch, sich dem Ideal zu nähern. Das Haupt- Bewertungskriterium ist, sofern dieses zunächst gewöhnungsbedürftige neue Denkmuster akzeptiert wird, für Maschinen, Verfahren, Vorrichtungen und Prozesse im oben erläuterten Sinne klar: Zugrunde gelegt wird beim Vergleich der Lösungsvarianten stets nur der Grad ihrer Annäherung an das Ideal. Wie erwähnt, sollte der Idealitätsbegriff für Produkte nur bedingt bzw. mit Einschränkungen verwendet werden. Da Produkte - anders als Verfahren und Prozesse - durch die Werbung dermaßen stark emotionalisiert sind, dass Objektivität nicht mehr zu erreichen ist, bevorzuge ich bei unseren Beispielen nach Möglichkeit immer wieder Maschinen, Apparate, Prozesse und Verfahren. Allerdings greifen leider auch bei Prozessen und Verfahren inzwischen Ideologisierung und Emotionalisierung um sich. Gewisse „um‐ weltbewusste“ Diskussionen sind oft weit von der technischen Vernunft entfernt: Recycling um jeden Preis, Erneuerbare Energien ohne Erörterung recht fragwürdiger Randbedingungen, sauberes Abwaschen von Joghurt- Bechern, die per gelbem Sack entweder in eine viel zu teure und damit letztlich die Umwelt belastende Aufarbeitungsanlage gebracht oder schließ‐ lich doch nur verbrannt werden. Natürlich sind progressive Verfahren dringendst notwendig, nur sollten sie sich in jedem einzelnen Fall per Öko- und Kostenbilanz auch tatsächlich objektive Prüfungen gefallen lassen. Neben der Einführung des IER in die Erfindungslehre verdanken wir Alt‐ schuller einen noch fundamentaleren Gedanken. Er betrifft die methodisch vollkommene Aufbereitung der, wie wir sahen, ursprünglich meist falsch („überbestimmt“, „vergiftet“) formulierten Aufgabenstellung, insbesondere das Erkennen der prinzipiellen Widersprüche, welche die Erfüllung der Aufgabe behindern/ den Weg zum IER versperren. Die methodisch einwandfrei formulierte Aufgabe lautet ganz abstrakt, so nahe wie möglich an das IER heranzukommen. Jeder versucht nun zunächst, das vorhandene System zwecks Erfüllung dieser Aufgabe zu optimieren. Optimierungsversuche werden gewöhnlich mittels Parameter- Veränderungen durchgeführt. Zunächst wird versucht, einen Parameter zu variieren. Ist das System nicht mehr optimierbar, so verschlechtert sich dabei mindestens ein anderer Parameter unzulässig, oder es verschlechtern sich sogar mehrere Parameter. Altschuller stellte nun fest, dass konventionelles (hier: quasi-optimierendes) Handeln bei nicht mehr optimierbaren Systemen zu folgendem Widerspruch führt: 50 3 Methoden und Praxisempfehlungen <?page no="51"?> „Ich muss etwas am System ändern, darf aber nichts ändern.“ In der ausführlichen Fassung wird klar, was mit dieser zunächst merkwürdig anmutenden Formulierung gemeint ist: „Ich muss etwas am System ändern (weil es nur mangelhaft funktioniert), darf aber am System nichts ändern (weil das System auf die Anwendung konventioneller Veränderungen bzw. Optimierungsversuche so reagiert, dass es noch mangelhafter als bisher funktioniert).“ Lässt sich ein solcher Widerspruch nicht formulieren, so haben wir es mit einer Optimierungsaufgabe zu tun. Wir können dann getrost konventionell handeln. Lässt sich aber ein solcher Widerspruch formulieren, so sind wei‐ tere Optimierungsversuche zwecklos. Ein Widerspruch dieser Art lässt sich grundsätzlich nur durch unkonventionelles Handeln, d. h. auf erfinderische oder äquivalente Weise, lösen. Eine Erfindung führt dann entweder dazu, dass das System völlig verlassen und das Ziel in anderer Weise erreicht wird, oder sie führt mindestens eine neue Bestimmungsgröße in das vorhandene System ein, oder sie beruht - in seltenen Fällen - darauf, dass ein bisher für unverzichtbar gehaltener Systembestandteil ganz weggelassen werden kann. Auch die Verbesserung einer Teilfunktion mit anderen als den bisher eingesetzten Mitteln kann, falls diese neuen Mittel nicht durch fachmänni‐ sches Handeln zugänglich sind, erfinderische Merkmale aufweisen. Jede dieser Möglichkeiten führt nun in der Praxis dazu, dass nach erfolgter Einführung der Erfindung neue Umstände geschaffen und damit neue Opti‐ mierungs-Spielräume - dies gilt bis zur nächsten erfinderischen Veränderung - eröffnet werden. Besonders einem methodisch noch nicht geübten Interessenten fällt die klare inhaltliche Unterscheidung der Begriffe Erfindung und Optimierung anfänglich recht schwer. Deshalb seien die wesentlichen Punkte hier noch einmal zusammengefasst: Optimierungsaufgaben sind keine Erfindungsaufgaben. Lässt sich kein Widerspruch formulieren, so lässt sich das System durch fachmännisches Handeln noch verbessern. „Fachmännisches Handeln“ weicht hier deutlich vom allgemeinen Sprachgebrauch ab. Fachmännisches Handeln im üblichen Sinne ist etwas besonders Hochwertiges, ist das qualifizierte Handeln des vom Laien bewunderten Spezialisten, des Experten. Im schutzrechtlichen Sinne steht der Terminus hingegen ausschließlich für konventionelles, übliches, von anderen (auch durchschnittlichen) Fachleuten jederzeit wie‐ derholbares, eindeutig nicht erfinderisches Handeln. Dazu gehört - neben 51 3.1 Die wichtigsten Kreativitätstechniken <?page no="52"?> anderen üblichen Vorgehensweisen - auch das Optimieren, und zwar das echte Optimieren im Sinne der realen Verbesserung, nicht der faule Kompromiss. Beim faulen Kompromiss wird der geforderte Parameter zwar verbessert, dabei wird aber hingenommen, dass sich andere Parameter unzulässig verschlechtern, so dass das System am Ende schlechter als zuvor arbeitet. Hier hilft dann nur noch eine erfinderische Lösung. Kommen wir nun zum Kernpunkt der TRIZ-Methodik. Zum Verständnis ist zunächst eine detaillierte Betrachtung der Widerspruchsterminologie erforderlich. Wir unterscheiden nach ihrem Abstraktionsgrad die folgenden Widerspruchsarten: ■ Technisch-Ökonomische Widersprüche („TÖW“), ■ Technisch-Technologische Widersprüche („TTW“), ■ Technisch-Physikalische Widersprüche („TPW“). TÖW: Der einer beliebigen Erfindungsaufgabe zugrunde liegende Tech‐ nisch-Ökonomische Widerspruch lautet ganz schlicht: „Das System muss kostengünstiger werden, es kann aber nicht kosten‐ günstiger werden.“ Es sei daran erinnert, dass dies für konventionelle Änderungsversuche gilt. Die Formulierung mag banal klingen, die Überwindung dieses Widerspruchs ist aber der Kernpunkt aller erfinderischen Aufgaben. Wird vom Erfinder keine bessere, kostengünstigere Lösung erreicht, so nützt eine technische Weltneuheit wenig. Deshalb ist die scharfe Formulie‐ rung des Technisch-Ökonomischen Widerspruchs, dessen Lösung nur auf erfinderischem Wege gelingt, unerlässlich. Der Terminus „Technisch-Ökonomischer Widerspruch“ wurde in den achtziger Jahren des vorigen Jahrhunderts in Weiterentwicklung des Alt‐ schuller-Gedankengutes von H.-J. Rindfleisch eingeführt. Rindfleisch war einer der verdienstvollen ehrenamtlichen Trainer der KDT-Erfinderschulen in der DDR (KDT = „Kammer der Technik“, Ost-Pen‐ dant zum VDI; „Erfinderschulen“ = TRIZ-orientierte Kreativitätstrainings‐ seminare, die mit realen Patentanmeldungen der Teilnehmer abschlossen). TTW: Der dem System zugrunde liegende Technisch-Technologische Wi‐ derspruch weist oft bereits systemspezifische Besonderheiten auf und lässt sich deshalb gewöhnlich nicht so umfassend wie der Technisch-Ökonomi‐ sche Widerspruch formulieren. Dennoch basiert jede Detailformulierung zu einer konkreten Aufgabe stets auf dem prinzipiellen Widerspruch: 52 3 Methoden und Praxisempfehlungen <?page no="53"?> „Das System muss geändert werden, darf aber nicht geändert werden“. Lautet das konkretisierte IER beispielsweise „Silberfreie Fotografie“, so müsste der konkretisierte TTW wie folgt formuliert werden: „Silber muss verwendet werden, Silber darf aber nicht verwendet werden“ (Es muss aus konventioneller Sicht verwendet werden, da es keine bessere Technik als die Silberhalogenidfotografie zu geben scheint, es darf aber nicht mehr verwendet werden, weil es vollständig eingespart werden soll). Bezogen auf die Silberhalogenidfotografie müsste demnach dieser nur mit erfin‐ derischen Mitteln zu lösende Widerspruch Ausgangspunkt des weiteren Handelns sein. In einem solchen Falle sind die Optimierungsmöglichkeiten ausgeschöpft. Dies war in der Tat etwa um 1978 der Fall (Abb. 4). Durch optimierende, z. T. auch erfinderische Maßnahmen war es gelungen, seit 1965 den Silbereinsatz bei Schwarz-Weiß-Fotopapieren von 2,2 auf 1,2 g/ m 2 zu minimieren. Der asymptotische Verlauf der Kurve zeigt uns, dass das Silber-System nunmehr (1978) „ausgereizt“ war. Optimieren kam nun nicht mehr infrage. TPW: Der Technisch-Physikalische Widerspruch ist stets abstrakt-physika‐ lisch zu formulieren. Allgemein gilt: „Das System hat einander ausschließende Forderungen zu erfüllen“. Je nach Situation ist zu formulieren: „Etwas muss da sein, darf aber nicht da sein“. Eine Bedingung schließt die andere aus, beide müssen aber dennoch erfüllt werden. Ein Zustand ist gegeben, er darf aber nicht sein. Etwas muss jetzt vorhanden sein, darf aber jetzt nicht vorhanden sein. Etwas muss offen sein, muss aber zugleich geschlossen sein. Etwas muss heiß sein, darf aber nicht heiß, sondern sollte kalt sein“ (Merke: Als Lösung kommt hier auf keinen Fall „lau“ infrage! ). Im Falle unseres Silber-Beispiels ist der Übergang zur höchsten Abstrakti‐ onsebene, dem Technisch-Physikalischen Widerspruch, nach konsequenter Analyse der Situation nicht mehr schwierig: „Silber muss da sein, darf aber nicht da sein“ (Wir werden sehen, dass eine der möglichen Lösungen recht genau der modifizierten Formulierung entspricht: „Silber muss da sein, darf aber nicht (mehr) da sein“). Innerhalb des Suchsektors (Abb. 3) kommen meist mehrere Lösungen infrage. Jede dieser Lösungen muss, erfinderische Arbeit vorausgesetzt, zwingend in irgendeiner Weise die Widersprüche überwinden. Erfinderisch gelöst wurde bzw. wird das generelle (seinerzeit nicht nur für Schwarz-Weiß-Kopien aktuelle! ) Problem durch: 53 3.1 Die wichtigsten Kreativitätstechniken <?page no="54"?> Abb. 4 Silberauftrag (in g/ cm 2 ) bei Schwarzweiß-Fotopapieren (Epperlein 1984, S. 228) Typisches Beispiel eines durch Kompromisse nicht mehr zu verbessernden Systems. Nach zunächst rapider Minimierung des spezifischen Silberverbrauchs (durch z. T. erfinderische, z. T. optimierende Maßnahmen) ist eine weitere Einsparung nunmehr offensichtlich nicht mehr möglich: asymptotischer Kurvenverlauf 1972/ 1978 ■ Übergang zur Nicht-Silberhalogenid-Fotografie: Solche Verfahren wurden - unter Einsatz völlig anderer lichtempfind‐ licher Substanzen - in verschiedenen Varianten bereits über die Pio‐ nierphase hinaus entwickelt; sie sind typisch für eine konsequente Widerspruchslösung. Das eigentliche „IER“ der Silberhalogenidfotogra‐ fie ist eben die Nicht-Silberhalogenidfotografie. ■ Umwandeln des Silberbildes in ein anderes Metallbild bei Schwarz- Weiß-Kopien. Hier wird der primäre fotografische Prozess beibehal‐ ten. Es folgt der Austausch der dabei vollständig rückgewinnbaren Silberpartikel gegen Partikel eines billigeren Metalls (z. B. wird Ag durch Ni ausgetauscht). Wir haben das Muster einer pfiffigen Umge‐ hungslösung vor uns. Der wichtige, perfekt beherrschte, professionellen Fotografen unverzichtbar erscheinende, überzeugend funktionierende 54 3 Methoden und Praxisempfehlungen <?page no="55"?> Primärschritt brauchte zur Erleichterung der Experten nicht abgeschafft zu werden, und trotzdem wurde das Ziel erreicht. ■ Beibehaltung des Silberhalogenid-Prozesses in der ersten, der eigentlich fotografischen Stufe. Vollständiges Herauslösen und Recycling des Silbers in der Entwicklungsanstalt, nachdem das Silber seine Aufgabe erfüllt und die Bildinformationen an die in der ersten Stufe inaktiven Farbschichten weitergegeben hat. Dieses Verfahren wird für Farbfilme angewandt. Es erfüllt in sachlicher wie in methodischer Hinsicht höchste Ansprüche: „Silber ist da, aber (schließlich) nicht (mehr) da“. Wir erkennen das Wirken eines der so genannten Separationsprinzipien, die wir im Abschnitt 3.4.2 kennen lernen werden. Hier werden die einander anscheinend ausschließenden Forderungen der Anwesenheit und der Abwesenheit auf dem Wege der zeitlichen Trennung realisiert: erst Anwesenheit, dann Abwesenheit. ■ Elektronische Bildaufnahme-Einrichtungen in Kopplung mit magneti‐ schen Bildspeicherverfahren. Hierbei werden die fotografisch-chemi‐ schen Systeme, Silberhalogenid-Fotografie wie Nicht-Silberhalogenid- Fotografie, vollständig zugunsten elektronisch-magnetischer Systeme verlassen, die mit elektronischer Kamera, Signalspeicherung und Wie‐ dergabe auf dem Bildschirm arbeiten (Böttcher u. Epperlein 1983). Es ist bekannt, welche Entwicklung das Prinzip inzwischen ausgelöst hat: Digitalkameras haben die für herkömmliche Filme auf Silberhalogenid‐ basis ausgelegten konventionellen Kameras fast vollständig verdrängt. Chemische Prozesse wurden durch Halbleitertechnik ersetzt. Das Beispiel ist, so hoffe ich, überzeugend. Allerdings fragt sich der kritische Leser nun, wie er in jedem beliebigen anderen Falle, nachdem er die auf dem Wege zum IER zu überwindenden Widersprüche formuliert hat, syste‐ matisch zu vergleichbar hochwertigen Lösungen kommen kann. Dazu fand Altschuller eine überzeugende Antwort, die eigentlich der Ausgangspunkt seiner methodischen Arbeiten war (wir betrachten hier die Methode in der didaktisch „richtigen“ Reihenfolge, jedoch verlief die reale Entwicklung genau entgegengesetzt). Altschuller begann, nachdem er - noch als Schüler, zusammen mit zwei Freunden - seine erste Erfindung zum Patent angemeldet hatte, sich etwa seit seinem 19. Lebensjahr für das Methodische, Prinzipielle, Wiederholbare beim kreativen Prozess zu interessieren. Zunächst versuchte er es mit dem psychologischen Ansatz, reiste herum und befragte erfolgreiche Erfinder. 55 3.1 Die wichtigsten Kreativitätstechniken <?page no="56"?> Er wurde jedoch enttäuscht: Gerade die unstrittig hoch kreativen Erfinder wussten fast nichts dazu zu sagen, wie sie eigentlich im Laufe des „Schöp‐ fungsaktes“ vorgegangen waren. Die Auskünfte blieben vage, manche Er‐ finder wussten mit der Frage nichts anzufangen, andere murmelten: „Na ja, ist doch klar, da war das Problem, und da habe ich eben nachgedacht, wie ich es lösen kann; manche Ideen tauchen dann wohl eher zufällig auf “. Nun können wichtige Schritte des schöpferischen Prozesses durchaus intuitiver Art sein. Altschuller bestritt dies keineswegs, er wollte aber die, seiner Meinung nach viel wichtigeren, nicht-intuitiven Faktoren finden. Von deren Existenz war er fest überzeugt, jedoch konnten ihm die erfolgreichen Erfinder ganz offensichtlich nicht helfen. Zudem suchte man derartiges Gedankengut zu Beginn seiner Arbeiten (ca. 1948) in der Literatur - nicht nur in der sowjetischen - vergebens. Favorisiert wurde stets die Intuition. Altschuller versuchte nun durch „Rückwärts-Arbeiten“ weiterzukommen und prüfte deshalb zahlreiche Urheberscheine bzw. Patentschriften aus den unterschiedlichsten Fachgebieten auf eventuelle methodische Gemeinsam‐ keiten. Das Ergebnis war verblüffend: Er kam recht bald zu der Erkenntnis, dass fast alle erfinderischen Lösungen prinzipielle Ähnlichkeiten aufwei‐ sen. Beispielsweise wird immer wieder etwas miteinander kombiniert, zeitlich und räumlich voneinander getrennt, kompensiert, verschachtelt, umgekehrt, schnell aus gefährlichen Bereichen entfernt, mehrfach genutzt, vorgespannt usw. Zwar geschieht dies von Fall zu Fall mit Hilfe jeweils anderer technischer Mittel, aber das Prinzipielle in fast allen Patenten erwies sich als verblüffend ähnlich. Altschuller leistete nun eine wahre Sisyphus-Arbeit und „extrahierte“ aus zunächst 25 000 (später 40 000) Urheberscheinen insgesamt 35, spä‐ ter 40 Grundprinzipien. Wenn nun, so schlussfolgerte Altschuller, sich diese vergleichsweise wenigen Prinzipien in fast allen alten und neuen Patentschriften der unterschiedlichsten Fachgebiete nachweisen lassen, so sollten sich doch diese Prinzipien im Sinne hochwertiger Suchstrategien auch zum Lösen vermeintlich völlig neuer erfinderischen Aufgaben eignen. Zugleich bedeutet dies, erkannte Altschuller, dass die „neuen“ Aufgaben - aus methodischer Sicht - gar so neu nicht sein können (! ). Altschuller bezeichnete, nachdem er in zahlreichen methodischen Expe‐ rimenten die Praxistauglichkeit seiner Idee geprüft hatte, diese aus dem Patentfundus extrahierten Prinzipien folgerichtig als „Prinzipien zum Lösen Technischer Widersprüche“. 56 3 Methoden und Praxisempfehlungen <?page no="57"?> Der Leser wird zugeben, dass dieser Denkschritt, so klar er erscheinen mag, in Kombination mit dem zunächst zu formulierenden Idealen Endre‐ sultat und der Lehre von den Technischen Widersprüchen geradezu revolu‐ tionär anmutet. Dies gilt, obwohl die ersten Ansätze dieses Denkmodells inzwischen bereits etwa 70 Jahre alt sind, noch heute. Bezeichnend ist, dass sich diese für den praktisch tätigen Erfinder so außerordentlich nützliche Methode keineswegs bereits überall durchgesetzt hat. Im Gegenteil: Nach meiner Erfahrung, gewonnen in vielen Kreativitäts-Trainings-Seminaren, ist das Konzept noch immer weitgehend unbekannt. Dies wird erst mit dem Aufkommen von Computerprogrammen (so beispielsweise TechOptimizer, Innovation WorkBench sowie TriSolver) allmählich anders. Die wirklich anspruchsvollen und nützlichen Programme basieren sämtlich auf dem Altschullerschen Gedankengut. TRIZ, heute oftmals mit diesen Computer‐ programmen, auf die ich hier nicht näher eingehen kann, begrifflich fast gleichgesetzt, wird - Ironie des Schicksals - von einigen Nutzern gar als „neue amerikanische Methode“ wahrgenommen. Wer die Entstehungsge‐ schichte der TRIZ nicht kennt, kommt zu dieser irrigen Annahme, weil viele der auf TRIZ basierenden Programme von Altschullers Schülern nach deren Auswanderung in die USA entwickelt worden sind. Die denkmethodisch revolutionären Begriffe ■ Ideales Endresultat, ■ Technische Widersprüche, welche die Lösung des Problems mit her‐ kömmlichen (d. h. mit nichterfinderischen) Mitteln unmöglich erschei‐ nen lassen, ■ Prinzipien zum Lösen Technischer Widersprüche auf erfinderische Weise, wurden dann von Altschuller, wie erwähnt, in eine schrittweise strukturierte Handlungs-Empfehlung eingebaut. Altschuller nannte dieses System, nicht eben bescheiden: „Algorithmus zum Lösen erfinderischer Aufgaben“. Dass es sich dabei nicht um einen Algorithmus im exakten Sinne handelt, hatte ich bereits erläutert. Ganz gewiss haben wir aber ein hochwertiges heuristisches Oberprogramm vor uns, das wir nun, zumal es der Ausgangs‐ punkt der modernsten systematischen Methoden ist, näher kennenlernen wollen. Altschuller hat das Programm mehrfach bearbeitet, ergänzt und modernisiert. Zur Einführung wollen wir zunächst die kurze, besonders übersichtliche, didaktisch vorteilhafte ältere Fassung „ARIZ 68“ ansehen. Wir erkennen, dass wir es mit einem stufenweise aufgebauten System 57 3.1 Die wichtigsten Kreativitätstechniken <?page no="58"?> gezielter Fragen zu tun haben. Der erstmalig mit dem System arbeitende Interessent sollte unbedingt alle Fragen beantworten, weil anderenfalls ent‐ scheidende Aspekte unberücksichtigt bleiben, vorzeitig Primitivlösungen (nicht identisch mit raffiniert einfachen Lösungen! ) angesteuert werden, oder die Ausbaufähigkeit neu auftauchender Ideen nicht erkannt wird. Betrachten wir nun die wichtigsten Arbeitsschritte des ARIZ 68 in von mir gestraffter und präzisierter Fassung (nach: Altschuller 1973, S. 106-112). I) Wahl der Aufgabe Welches Ziel (technisch, ökonomisch) wird angestrebt? Was muss verändert werden? Welcher Aufwand ist zulässig? Was ist vorrangig zu verbessern? Gibt es Umgehungsmöglichkeiten? Falls die Aufgabe sehr schwierig ist oder gar unlösbar erscheint: Wie lautet die Umgehungsaufgabe? Wäre die Lösung der Umgehungsaufgabe eventuell günstiger als die Lösung der ursprünglichen Aufgabe? Entscheidung zwischen ursprünglicher und Umgehungsaufgabe. Welche quantitativen Kennziffern werden gefordert? Wie einfach muss - bzw. wie kompliziert darf - die Lösung sein? II) Präzisierung der Bedingungen der Aufgabe Wie werden nach der (Patent)-Literatur ähnliche Aufgaben gelöst? Wie werden ähnliche Aufgaben im führenden Zweig der Technik gelöst? Was wäre, wenn man den Aufwand völlig unberücksichtigt ließe? Wie ändert sich die Aufgabe, falls man die Zielgrößen erheblich variiert? Wie ändert sich die Aufgabe, wenn die Größe der geforderten Kennziffer(n) ganz extrem auf das (z. B.) Hundertfache erhöht oder auf (z. B.) ein Hun‐ dertstel reduziert wird? (Einsatz des Operators Abmessungen - Zeit - Kosten, „A-Z-K“) Wie hört sich die Aufgabenstellung an, falls ich sie mit ganz einfachen Worten, d. h. unter Verzicht auf die Fachterminologie, formuliere? III) Analytisches Stadium Was will ich im Idealfall erreichen? Wie lautet die Formulierung des Idealen Endresultats? Was steht der Erreichung des IER im Wege? Wie lautet die abstrakte und wie die konkrete Widerspruchsformulierung? Worin liegt 58 3 Methoden und Praxisempfehlungen <?page no="59"?> konkret die Störung? Worin besteht der unerwünschte (technische) Effekt, und weshalb wirkt er? Lässt sich das Hindernis beseitigen oder umgehen? Wie ist dies zu erreichen? Kann ich es so einrichten, dass das Hindernis zwar bleibt, aber aufhört schädlich zu sein? Wie müssen die Mittel beschaffen sein, die das Hindernis beseitigen respek‐ tive unschädlich machen? IV) Operatives Stadium Lässt sich der Technische Widerspruch mit Hilfe einer Tabelle typischer Verfahren (Prinzipien zum Lösen Technischer Widersprüche) beseitigen? Kann man das Arbeitsmedium variieren? Was muss an den mit dem Objekt bzw. Verfahren zusammen wirkenden Objekten verändert werden? Ist durch Variation/ Austausch in der zeitlichen Abfolge etwas zu erreichen? Kann der Widerspruch durch kontinuierliche Arbeitsweise gelöst werden? Wie löst bzw. löste die belebte bzw. ehemals belebte Natur eine solche Aufgabe? Welche Gesichtspunkte sind zu beachten, um die Besonderheiten der in der Technik verwendeten Materialien zu berücksichtigen? V) Synthetisches Stadium Welche weiteren Veränderungen sind nach erfolgter Veränderung von Teilen des Objektes erforderlich? Müssen nunmehr andere Objekte verändert werden, die gemeinsam mit dem veränderten Objekt arbeiten? Lassen sich für das veränderte Objekt neue Anwendungsmöglichkeiten fin‐ den? Kann die gefundene technische Idee - oder eine ihr entgegengesetzte Idee - zur Lösung anderer Aufgaben verwendet werden? Überlegen wir nunmehr Punkt für Punkt, was im Einzelnen das methodisch Besondere des ARIZ ausmacht. Die ersten drei Schritte dienen offensichtlich der Problembzw. System- Analyse. Altschuller betrachtete diese Schritte als wichtig, auch wenn der methodische Ausgangspunkt seiner Arbeiten (s. o.) eher bei den Lösungs‐ strategien lag. Während die intuitiven und die halbsystematischen Methoden (Kap. 3.1) die Problemanalyse weitgehend vernachlässigen, um möglichst schnell zur Ideenfindung zu kommen, geht Altschuller in die Tiefe. Er versucht den physikalischen Kern jener Mängel herauszufinden, welche der 59 3.1 Die wichtigsten Kreativitätstechniken <?page no="60"?> Anlass für die Beschäftigung mit der neu zu definierenden „richtigen“, d. h. der eigentlichen Aufgabe sind. Schritt I befasst sich mit Fragen nach den quantitativen Erfordernissen und dem erlaubten Kompliziertheitsgrad; das ist bereits hier, ganz zu Beginn des erfinderischen Prozesses, besonders wichtig. Heuristisch wertvoll ist die Frage nach der Umgehungsaufgabe. Sie gewährleistet, dass der Erfinder sich nicht in nur eine - die vermeintlich einzige - Arbeitsrichtung verbeißt, sondern im Auge behält, dass er das Problem auch elegant umgehen könnte, falls sich die ursprüngliche Aufgabe als zu schwierig oder gar unlösbar erweisen sollte. Schritt II führt einen Gedanken ein, der sich bei Osborn (1953) zwar bereits im Ansatz findet, der aber erst von Altschuller konsequent ausgebaut wurde. Altschuller nennt diesen gedanklichen Schritt „AZK-Operator“ (Abmessun‐ gen, Zeit, Kosten). Darunter ist zu verstehen, dass der gesamte Prozess auch einmal als sehr langsam bzw. sehr schnell, das Objekt als sehr klein bzw. sehr groß, und die erlaubten Kosten als sehr hoch bzw. sehr niedrig gedacht wer‐ den sollten. Dies führt zu einer Erweiterung des Gesichtsfeldes. Es werden Gebiete mit betrachtet, die sonst keine Berücksichtigung gefunden hätten. Wichtig ist auch die Forderung, die Aufgabe in einfacher Sprache, unter Verzicht auf die Fachterminologie, zu beschreiben: Fachtermini kanalisieren das Denken und sind bei der Suche nach unkonventionellen Lösungen hinderlich: Erhält ein Klebstoff-Fachmann den Auftrag, einen neuen Kleber zu entwickeln, so wird er das fachmännisch tun. Da er aber „kleben“ (und nicht „haften“) denkt, entgehen ihm alle „Von-selbst-Lösungen“: Das IER im methodischen Sinne ist nicht ein Super-Kleber, sondern eine Von-Selbst- Haft-Problemlösung (die auch etwas ganz anderes als einen Kleber, so das Haften durch statische Elektrizität, mikroraue, oder - im Gegenteil - extrem glatte, adhäsiv wirkende Oberflächen bedeuten kann). Schritt III definiert das IER und den Technischen Widerspruch. Ergänzend wird der physikalische Kern der Störung, die zum Anlass der Aufgabe wurde, herausgeschält („Schädlicher Effekt“). Die Formulierung des physi‐ kalischen Kerns sollte stets abstrakt erfolgen, und zwar wegen der Gefahr der vorzeitigen Kanalisierung des Denkens durch eine allzu spezielle („tech‐ nologiebestimmte“) Terminologie. Ferner werden hier erste Strategien zum Ausschalten der Störung empfohlen. Die im engeren Sinne erfinderische Arbeit wird sodann im operativen Stadium (Schritt IV) geleistet. Hier kommt nun der dritte Altschullersche 60 3 Methoden und Praxisempfehlungen <?page no="61"?> Fundamentalgedanke zum Einsatz. Während die Phase der Problemanalyse durch die beiden methodischen Grundgedanken Ideales Endresultat und Technischer Widerspruch gekennzeichnet ist, beruht der Leitgedanke des Operativen Stadiums auf der Existenz einer sehr begrenzten Anzahl klar überschaubarer Lösungsprinzipien. Altschuller legte zum Zeitpunkt der Veröffentlichung des „ARIZ 68“ zunächst eine Liste von 35 derartigen Prinzipien vor. Betrachten wir diese kritisch, so wird uns klar, dass derart allgemein gehaltene Lösungsempfeh‐ lungen bzw. Suchstrategien nur dann praktischen Wert haben, wenn sie, Prinzip für Prinzip, mit einer Fülle möglichst verschiedenartiger Beispiele belegt werden. Altschuller hat auch diesen Beweis angetreten und recht eindrucksvolle Beispiele geliefert (Altschuller 1973, S.133-167). Die später veröffentlichten Beispiele (Altschuller u. Seljutzki 1983, Altschuller 1984, Altschuller, Zlotin u. Filatov 1985) sind allerdings z. T. derart knapp erläutert, dass der Zusammenhang nicht immer klar wird. In allen neueren Publikationen (z. B. Altschuller 1984, Herb, Herb und Kohnhauser 2000) wird mit 40 Prinzipien gearbeitet, und dies ist, allen laufenden Erweiterungsbemühungen zum Trotz, auch heute noch der von den meisten Experten anerkannte Sachstand. Deshalb wollen wir an dieser Stelle alle 40 Prinzipien, versehen mit erläuternden Handlungsanweisungen ( a), b), c) …) aufführen. Das System arbeitet zwar Branchen übergreifend, die meisten der Handlungsanweisungen lassen allerdings noch immer die Herkunft des Systems aus dem Bereich des Maschinenbaus bzw. der Konstruktionslehre erkennen. Nr. 1 Zerlegung a. Das Objekt ist in unabhängige Teile zu zerlegen. b. Das Objekt ist zerlegbar auszuführen. c. Der Grad der Zerlegung des Objektes ist zu erhöhen. Nr. 2 Abtrennung Vom Objekt ist der störende Teil (die störende Eigenschaft) abzutrennen, oder, umgekehrt, es ist der einzig notwendige Teil (die einzig erforderliche Eigenschaft) abzutrennen. 61 3.1 Die wichtigsten Kreativitätstechniken <?page no="62"?> Nr. 3 Örtliche Qualität a. Von der homogenen ist zur inhomogenen Struktur überzugehen. Dies betrifft das Objekt selbst, in anderen Fällen aber auch das umgebende Medium bzw. die Arbeitsumgebung. b. Verschiedene Teile des Objektes führen unterschiedliche Funktionen aus. c. Jedes Teil des Objektes soll sich unter Bedingungen befinden, die seiner Arbeit am meisten zuträglich sind. Nr. 4 Asymmetrie a. Übergang von der symmetrischen zur asymmetrischen Form. b. Ist das System bereits asymmetrisch, so ist der Grad der Asymmetrie zu erhöhen. Nr. 5 Kopplung a. Gleichartige oder für zu koordinierende Operationen vorgesehene Ob‐ jekte sind zu koppeln. b. Gleichartige oder zu koordinierende Operationen sind zeitlich zu koppeln. Nr. 6 Universalität Das Objekt erfüllt mehrere unterschiedliche Funktionen, wodurch weitere Objekte überflüssig werden. Nr. 7 Steckpuppe („Matrjoschka“) a. Ein Objekt ist im Inneren eines anderen untergebracht, das sich wie‐ derum im Inneren eines dritten befindet (usw.) b. Ein Objekt befindet sich im (bzw. verläuft durch den) Hohlraum eines anderen Objektes. Nr. 8 Gegenmasse a. Masse-Kompensation durch Anwendung einer Gegenmasse. b. Die Masse des Objekts ist durch Wechselwirkung mit einem Kraft ausüben‐ den Medium (insbesondere Wasser- oder Windkraft) zu kompensieren. 62 3 Methoden und Praxisempfehlungen <?page no="63"?> Nr. 9 Vorherige Gegenwirkung Wenn gemäß den Bedingungen der Aufgabe eine bestimmte Wirkung erzielt werden soll, ist eine erforderliche Gegenwirkung vorab zu gewährleisten. Nr. 10 Vorherige Wirkung Die erforderliche Wirkung ist vorher zu erzielen (vollständig oder teilweise). Die Objekte sind vorher so zu positionieren, dass sie ohne Zeitverlust vom geeigneten Ort aus wirken können. Nr. 11 „Vorher untergelegtes Kissen“ Falls die Zuverlässigkeit des Objekts unbefriedigend ist, muss dies durch vorher bereitgestellte schadensvorbeugend wirkende Mittel ausgeglichen werden. Nr. 12 Äquipotenzialprinzip Die Arbeitsbedingungen sind so zu verändern, dass das Objekt weder angehoben noch abgesenkt werden muss. Nr. 13 Funktionsumkehr a. Statt der durch die Bedingungen der Aufgabe vorgeschriebenen Wir‐ kung ist die umgekehrte Wirkung anzustreben. b. Der bewegliche Teil des Objektes oder der Arbeitsumgebung ist unbe‐ weglich zu machen (und umgekehrt). c. Das Objekt ist im geometrischen Sinne umzukehren. Nr. 14 Kugelähnlichkeit a. Von geradlinigen Konturen ist zu krummlinigen, von ebenen zu sphä‐ rischen Flächen, und von kubischen zu kugelförmigen Konstruktionen überzugehen. b. Zu verwenden sind Rollen, Kugeln, Spiralen. c. Übergang von der geradlinigen Bewegung zur Rotationsbewegung; Ausnutzen der Fliehkraft. 63 3.1 Die wichtigsten Kreativitätstechniken <?page no="64"?> Nr. 15 Dynamisierung a. Die Kennwerte des Objektes bzw. des Arbeitsmediums sind für die jeweiligen Arbeitsetappen so zu verändern, dass stets optimal gearbeitet werden kann. b. Das Objekt ist in zueinander verschiebbare bzw. verstellbare Teile zu zerlegen. c. Unbewegliche Objekte sind beweglich zu gestalten. Nr. 16 Partielle oder überschüssige Wirkung Falls 100 % des erforderlichen Effektes direkt nur schwierig zu erzielen sind, kann das Prinzip „ein bisschen weniger“ oder „ein bisschen mehr“ die Aufgabe leichter machen. Nr. 17 Übergang zu höheren Dimensionen a. Zweidimensionale statt eindimensionaler Bewegung. b. Mehretagige Anordnung von Objekten. c. Das Objekt ist geneigt anzuordnen. d. Ausnutzen der Rückseite des Objekts. e. Ausnutzen der Lichtströme, die auf die Umgebung oder auf die Rück‐ seite des gegebenen Objektes fallen. Nr. 18 Ausnutzen mechanischer Schwingungen a. Das Objekt ist in Schwingungen zu versetzen. b. Falls es bereits schwingt, ist die Frequenz zu erhöhen (bis hin zur Ultraschallfrequenz). c. Ausnutzen der Eigenfrequenz. d. Übergang von mechanischen zu Piezo-Vibratoren. e. Ultraschallschwingungen sind in funktioneller Verbindung mit elektro‐ magnetischen Feldern zu nutzen. Nr. 19 Periodische Wirkung a. Von der kontinuierlichen ist zur Impulswirkung überzugehen. b. Arbeitet das System bereits periodisch, ist die Periodizität zu verändern. 64 3 Methoden und Praxisempfehlungen <?page no="65"?> c. Die Pausen zwischen den Impulsen sind anderweitig zu nutzen (z. B., indem in diesen Pausen andere - zusätzliche - Wirkungen erzielt werden). Nr. 20 Kontinuität der Wirkprozesse a. Alle Teile des Objektes sollen ständig mit gleichbleibend hoher Belas‐ tung arbeiten. b. Leerlauf und Diskontinuitäten sind auszuschalten. Nr. 21 Schnelle Passage Der Prozess oder einzelne seiner Etappen (z. B. schädliche oder gefährliche) sind mit hoher Geschwindigkeit zu durchlaufen. Manche Prozesse erfordern ungewöhnliche Arbeitsbereiche, die zwar für den Prozess unerlässlich, zugleich aber schädlich sind und deshalb schnell wieder verlassen werden müssen. Nr. 22 Umwandeln des Schädlichen in Nützliches a. Schädliche Faktoren (z. B. die schädliche Einwirkung eines Mediums) sind für die Erzielung eines positiven Effektes zu nutzen. b. Ein schädlicher Faktor ist durch Überlagerung mit anderen schädlichen Faktoren zu beseitigen. c. Ein schädlicher Faktor ist bis zu dem Punkt zu verstärken, an dem er schließlich aufhört schädlich zu sein. Nr. 23 Rückkopplung Es ist mit Rückkopplung zu arbeiten. Falls bereits mit Rückkopplung gear‐ beitet wird, ist sie zu variieren. Nr. 24 „Vermittler“ a. Es ist ein Zwischenobjekt zu verwenden, das die Wirkung überträgt oder weitergibt. b. Zeitweilig soll das Objekt mit einem anderen (leicht zu entfernenden) Objekt gemeinsam in Funktion sein. 65 3.1 Die wichtigsten Kreativitätstechniken <?page no="66"?> Nr. 25 Selbstbedienung a. Das Objekt soll sich selbst bedienen und Hilfswie Reparaturfunktionen selbst ausführen. b. Abprodukte oder „Abprodukt-Analoga“ (Energie, Material) sind zu nutzen. Nr. 26 Kopieren a. Anstelle eines unzugänglichen, schlecht handhabbaren, komplizierten, teuren, zerbrechlichen Objektes sind vereinfachte und/ oder billige Ko‐ pien zu nutzen. b. Das Objekt oder das System von Objekten ist durch seine optischen Kopien zu ersetzen. Die Kopien sind erforderlichenfalls maßstäblich zu verändern (zu vergrößern oder zu verkleinern). c. Werden bereits optische Kopien benutzt, so ist zu infraroten oder ultravioletten Kopien überzugehen. Nr. 27 Billige Kurzlebigkeit an Stelle teurer Langlebigkeit Das anspruchsvoll-teure Objekt ist durch kurzlebig-billige Objekte zu erset‐ zen. Nr. 28 Ersatz mechanischer Schaltbilder (Schaltungen) a. Das mechanische Schaltbild (auch im Sinne von „Schaltung“) ist durch ein optisches, akustisches oder geruchsaktives zu ersetzen. b. Elektrische, magnetische bzw. elektromagnetische Felder sind für eine Wechselwirkung mit dem Objekt auszunutzen. c. Von stationären ist zu bewegten Feldern, von konstanten zu veränder‐ lichen, von strukturlosen zu strukturierten Feldern überzugehen. d. Die Felder sind in Kombination mit ferromagnetischen Teilchen zu nutzen. Nr. 29 Pneumo- oder Hydrokonstruktionen Anstelle der massiven Teile des Objektes sind gasförmige oder flüssige zu verwenden: aufgeblasene oder mit Flüssigkeit gefüllte Teile, Luftkissen, hydrostatische und hydroreaktive Teile. 66 3 Methoden und Praxisempfehlungen <?page no="67"?> Nr. 30 Elastische Umhüllungen und dünne Folien a. Es sind biegsame Hüllen und dünne Folien einzusetzen. b. Das Objekt ist mittel biegsamer Umhüllungen/ Folien vom Medium zu isolieren. Nr. 31 Verwenden poröser Werkstoffe a. Das Objekt ist porös auszuführen, oder es sind zusätzliche poröse Elemente (Einsatzstücke, Überzüge) zu verwenden. b. Ist das Objekt bereits porös, so sind die Poren vorab mit einem bestimm‐ ten Stoff zu füllen. Nr. 32 Verändern von Farbe und Durchsichtigkeit a. Die Farbe des Objekts oder des umgebenden Mediums ist zu verändern. b. Der Grad der Transparenz des Objektes oder des umgebenden Mediums ist zu verändern. c. Ist ein Objekt nur schwierig zu erkennen, so ist mit Farbzusätzen zu arbeiten. d. Werden solche Zusätze bereits verwendet, so ist auf Fluoreszenzfarben überzugehen. Nr. 33 Gleichartigkeit bzw. Homogenität Objekte, die mit dem gegebenen Objekt zusammenwirken, müssen aus dem gleichen Werkstoff (oder einem Werkstoff mit annähernd gleichen Eigenschaften) gefertigt sein. Nr. 34 Beseitigen und / oder Regeneren von Teilen a. Der Teil eines Objekts, der seinen Zweck erfüllt hat oder unbrauchbar geworden ist, wird beseitigt (verdampft, aufgelöst etc.) oder unmittelbar im Arbeitsgang umgewandelt. b. Verbrauchte Teile eines Objektes werden unmittelbar im Arbeitsgang umgewandelt. c. Verbrauchte Teile des Objekts werden unmittelbar im Arbeitsgang wiederhergestellt. 67 3.1 Die wichtigsten Kreativitätstechniken <?page no="68"?> Nr. 35 Veränderung des Aggregatzustandes eines Objektes Nicht nur einfache Übergänge (z. B. fest flüssig), sondern auch die Übergänge in „Pseudo“- oder „Quasi“-Zustände und in Zwischenzustände sind zu nutzen (elastische feste Körper, thixotrope Substanzen). Nr. 36 Anwenden von Phasenübergängen Die bei Phasenübergängen auftretenden Erscheinungen sind auszunutzen, z. B. Volumenveränderung, Wärmeentwicklung oder -absorption. Nr. 37 Anwenden der Wärme(aus)dehnung a. Die Volumenveränderung von Werkstoffen unter Wärmeeinwirkung ist auszunutzen. b. Es sind Werkstoffe unterschiedlicher Wärmedehnung miteinander zu kombinieren. Nr. 38 Anwenden starker Oxydationsmittel a. Atmosphärische Luft ist durch mit Sauerstoff angereicherte Luft zu ersetzen. b. Angereicherte Luft ist durch Sauerstoff zu ersetzen. c. Luft oder Sauerstoff sind der Einwirkung ionisierender Strahlung aus‐ zusetzen. d. Es ist ozonisierter Sauerstoff zu verwenden. e. Ozonisierter (oder ionisierter) Sauerstoff ist durch Ozon zu ersetzen. Nr. 39 Anwenden eines trägen Mediums a. Das übliche Medium ist durch ein reaktionsträges zu ersetzen. b. Der Prozess ist im Vakuum durchzuführen. Nr. 40 Anwenden zusammengesetzter Stoffe Von gleichartigen Stoffen ist zu zusammengesetzten Stoffen überzugehen. Das Handhaben dieser Prinzipien für erfinderische Zwecke wird nun in den einschlägigen Werken (z. B. Altschuller 1984, Terninko, Zusman und Zlotin 68 3 Methoden und Praxisempfehlungen <?page no="69"?> 1998, Orloff 2002, Herb, Herb u. Kohnhauser 2000, Zobel 2019, Zobel u. Hartmann 2016, Zobel 2018) an zahlreichen Beispielen belegt. Da Altschuller meist wie ein Maschinenbauer dachte, entstammen trotz gegebener Univer‐ salität seiner Methode die meisten Beispiele dieser Branche; es erschien mir deshalb verlockend, neuere und neueste Beispiele aus den Bereichen der Chemischen Technologie, der Medizin und der Medizintechnik beizusteuern (Zobel 2019, 2018). Wesentlich mehr Beispiele bringen die oben erwähnten Computerprogramme in den entsprechenden Dateien, deren Stofffülle für den Ungeübten allerdings auch kontraproduktiv - weil verwirrend - sein kann. Damit der Erfinder nicht immer alle Prinzipien auf ihre eventuelle Verwendbarkeit durchprüfen muss, hat Altschuller eine Matrix entwickelt, mit deren Hilfe für bestimmte Klassen von Technischen Widersprüchen die angeblich besonders Erfolg versprechenden Lösungsprinzipien aufgefunden werden können. In dieser Matrix sind links die zu verbessernden Merkmale bzw. die zu treffenden Veränderungen aufgeführt. In der Kopfleiste finden wir jeweils diejenigen Merkmale, welche sich signifikant verschlechtern, falls man die Aufgabe mit konventionellen Methoden zu lösen versucht. Der Charakter der von Altschuller formulierten 39 Merkmale („Technologi‐ schen Parameter“) definiert zugleich den Charakter der Widersprüche, zu deren Behebung die mit Hilfe der Matrix als geeignet bestimmten Lösungs‐ prinzipien empfohlen werden. Jeder Tabellenplatz ist mit den Ziffern der aussichtsreich erscheinenden Prinzipien gemäß obiger Aufstellung besetzt. Fast immer sind die Tabellenplätze mehrfach belegt, da meist nicht nur ein Prinzip zur Lösung des jeweiligen Widerspruchs infrage kommt. Auch zeigt die kritische Durchsicht der Begriffe, dass manche Prinzipien inhaltlich eng verwandt sind. Die Arbeit mit dieser Matrix ist nicht banal, da es nicht immer gelingt, die einander bei konventionellem Handeln behin‐ dernden Parameter zu finden. Nicht wenige Nutzer der Prinzipien verzichten deshalb auf die Matrix und sehen lieber alle 40 Prinzipien auf ihre mögliche Verwendbarkeit durch. Wer dennoch unbedingt mit der Matrix arbeiten will, sei auf die einschlägigen Werke (z. B. Altschuller 1984, Terninko, Zusman u. Zlotin 1998) verwiesen. Auch ist die Matrix über das Internet zugänglich (google: siehe „triz-tabelle“). Der Schritt V des ARIZ („Synthetisches Stadium“) betrifft die kritische Prüfung der Ergebnisse auf ihre Mehrfach-Verwendbarkeit. Gerade der junge Kreative beurteilt technische Sachverhalte meist nach ihrem äußeren Bild. Dabei verkennt er oft, dass sehr verschieden aussehende Gebilde (bzw. 69 3.1 Die wichtigsten Kreativitätstechniken <?page no="70"?> Objekte/ Verfahren) den gleichen oder doch ähnlichen Grundprinzipien gehorchen. Dies gilt auch für das erfinderische Ergebnis. Nur selten beseitigt die neue Erfindung ein absolut einmaliges Sonderproblem. Weitaus häufiger lässt sich mit Hilfe des neu geschaffenen technischen Wissens (der neuen „erfinderischen Lehre“) eine Reihe weiterer, vermeintlich ganz anderer Aufgaben lösen. Scharfsinniges Analysieren des Ergebnisses, Abstrahieren vom konkreten Fall, Suche nach Analogien, Prüfen neuer Einsatzmöglich‐ keiten für die erfinderische Grundidee - das sind Gedankengänge, die dem methodisch routinierten Erfinder kaum Schwierigkeiten bereiten, die jedoch bei bewusstem Befolgen dieser Empfehlungen auch Anfängern gelingen dürften. Die Bezeichnung „Algorithmus“, die 40 Lösungsprinzipien sowie die erwähnte Such- und Zuordnungsmatrix könnten nun den Eindruck erwe‐ cken, dass die bisher vom Erfinder geforderte kreative Leistung nicht mehr notwendig sei. Dies ist jedoch durchaus nicht der Fall: „Sind denn nun die typischen Verfahren (Prinzipien) mit dem schöpferischen Cha‐ rakter des Erfindungsprozesses vereinbar? Ja, sie sind vereinbar! Und mehr noch, alle Erfinder wenden heute typische Verfahren an, wenn auch nicht immer bewußt … Es muß unterstrichen werden, daß die Verfahren zur Beseitigung der technischen Widersprüche … nur in allgemeiner Form formuliert sind. Sie ähneln einem Kleid von der Stange und müssen noch den spezifischen Besonderheiten der jeweiligen Aufgabe angepaßt werden. Wenn z. B. die Tabelle das Prinzip 1 (Zerlegen) empfiehlt, so bedeutet das nur, daß die Lösung „irgendwie“ mit einem Zerlegen des Objektes verbunden ist. Die Tabelle ist natürlich kein Ersatz für das eigene schöpferische Denken des Erfinders“ (Altschuller 1973, S. 132). Altschuller hat während seines gesamten aktiven Arbeitslebens, also etwa bis Mitte der achtziger Jahre, sein System immer wieder ergänzt und verbessert. Eingebaut wurden die hinzugekommenen Lösungsstrategien in die jeweils neuesten Fassungen des ARIZ, der ebenfalls immer wieder ergänzt und überarbeitet wurde. Eine noch heute benutzte Variante ist der „ARIZ 77“ (aus dem Jahre 1977). Die methodisch wichtigsten Erweiterungen bzw. Ergänzungen gegenüber dem Sachstand des ARIZ 68 (1968) sind: Standards zum Lösen von Erfindungsaufgaben, die Gesetze der Entwicklung Technischer Systeme, die Stoff-Feld-Analyse und die sich daraus ergebenden anspruch‐ volleren 76 Standardlösungen, die Separationsprinzipien, die Physikalischen Effekte, sowie schließlich das „Modell der kleinen intelligenten Figuren“, auch als „Zwergemodell“ bezeichnet. Alle Lösungsstrategien - bis auf das 70 3 Methoden und Praxisempfehlungen <?page no="71"?> Zwergemodell - sind rationaler Art, d. h. sie erfordern nicht unbedingt Intuition, wenngleich natürlich der phantasievolle Kreative stets im Vorteil ist. Er erkennt beim „Übersetzen“ der Beispiele, dass ein vermeintlich ganz fern liegendes Beispiel eben doch einen - mindestens indirekten - Bezug zu seinem Problem hat. Die erwähnte Ausnahme, das Zwergemodell, hat Altschuller mehr oder minder der Synektik entnommen. Beim klassischen synektischen Vorgehen versetzt sich der Erfinder persönlich in das Problem bzw. die technische Situation, er fühlt sich gleichsam ein („Empathie“). Dieses Vorgehen hat Grenzen, denn wer hält schon - sei es auch nur gedanklich - eine Temperatur von 300 °C oder einen Druck von 500 bar aus, wenn es doch das System erfordert? Hier hilft die Modellvorstellung der „kleinen intelligenten Figuren“, die wir uns beliebig stabil und zudem willig („gute Zwerge“) denken können, uns und unsere Bemühungen direkt, vor Ort, im System zu unterstützen. Die konkrete Anwendung der wichtigsten Lösungsstrategien bzw. ihrer von mir nach praktischen Gesichtspunkten ausgewählten Kern-Elemente werden wir im Kapitel 3.4 näher kennenlernen. Umfassendere Angaben finden sich in den Spezialwerken (Zobel 2019 und 2018). Altschuller, der insbesondere in seinen späteren Jahren sehr patriarcha‐ lisch - fast doktrinär - auftrat, bestand stets auf seinem uneingeschränkten Vorrecht zur Weiterentwicklung des ARIZ. Nur in einzelnen Fällen soll er zögernd seine Einwilligung für Veränderungen, vorgenommen von seinen Schülern, gegeben haben (Shub 2006). Allerdings hat sich auf Dauer keiner der methodisch aktiven TRIZ-niks an das Verbot des Patriarchen gehalten, insbesondere nicht außerhalb Russlands. Von den methodisch interessanten Weiterentwicklungen wollen wir exemplarisch WOIS ® betrachten, die „Widerspruchsorientierte Innovations‐ strategie“. Ausgehend von der Erkenntnis „Jede Aufgabe ist falsch formuliert, es fragt sich nur, w i e falsch“ hat Linde noch konsequenter, als bisher be‐ schrieben, das Herausarbeiten der eigentlichen Aufgabe in den Mittelpunkt der methodischen Arbeit gestellt. Dem entsprechend wird bereits in der Orientierungsphase ein wesentlicher Teil der Arbeit geleistet. Dieser Ansatz basiert auf Lindes These: „Die rechtzeitige und treffende Herausarbeitung der wirklich wichtigen Entwick‐ lungsaufgaben erfordert oft mehr Kreativität als deren Lösung. Dabei ist die richtig gestellte Aufgabe mehr als die halbe Lösung“ (Linde, Mohr u. Neumann 1994, S. 77). 71 3.1 Die wichtigsten Kreativitätstechniken <?page no="72"?> Der heute noch meist passive Weg zu Entwicklungsaufgaben wird von Linde außerordentlich kritisch gesehen: „Entwicklungsaufgaben mit großem Erfolgspotential fallen nicht vom Himmel, sondern müssen immer aus komplexen und sehr diffusen Markt-, Bedarfs- und Technologiesituationen herausgearbeitet werden. Das ist eine bedeutende Aufgabe für erfolgreiche Entwicklungsprozesse. Für eine langfristig erfolgreiche Innovations‐ strategie genügt es dazu nicht, von den Signalen des Marktes auszugehen. Vielmehr ist es notwendig, auch Indizien für die zukünftigen Bedürfnisse der Menschen und der Wirtschaft vorausschauend zu erkennen“ (Linde, Mohr u. Neumann 1994, S.77). Als nützliche Orientierungsmittel in dieser wichtigsten Phase haben sich nach Linde bewährt: Bestimmung des Oberziels, Orientierung an Mega- Trends, Analyse des Standes der Technik zwecks Schwachstellenanalyse, Generationenbetrachtungen (was war, was ist, was könnte sein? ), Orientie‐ rung an Evolutionsgesetzen, Definition Idealer Technischer Systeme. Linde geht davon aus, dass Entwicklungsteams nicht in ein künstliches Vorgehens‐ korsett gezwängt werden, sondern sich besser an natürlich ablaufenden Vorgängen - wie der Technischen Evolution - orientieren sollten. Deshalb wird im Lindeschen System WOIS® der Frage „Wo befindet sich mein System, und wie hat es sich bis heute entwickelt“? besondere Bedeutung beigemessen: „Viele Entwicklungsaufgaben, an denen mit viel Aufwand gearbeitet wird, stellen sich aus der Sicht der Technikevolution als falsch dar. Das wirft die Frage nach einer effektiven Innovationsstrategie auf. Eine Gesetzmäßigkeit der Evolution besteht im zyklischen Entstehen und Lösen von Entwicklungswidersprüchen. Diese zunächst unüberwindbar erscheinenden Barrieren führen, wenn die paradoxen Forderungen an die Zielgrößen innerhalb eines Systems erfüllt werden, zu Effektivitätssprüngen“ (Linde, Mohr u. Neumann 1994, S. 77). Die bisher nur von Linde in wirklich konsequenter Weise praktizierte Ge‐ nerationenbetrachtung ist in mehrfacher Hinsicht nützlich. Betrachten wir die Geschichte eines Technischen Systems, so lernen wir es einschließlich seiner Mängel ganz genau kennen (Analytischer Aspekt). Untersuchen wir, mit welchen - heute oftmals vergessenen - Mitteln zur Erreichung des jeweiligen Zwecks früher gearbeitet wurde, so erhalten wir Anregungen zum abermaligen (modifizierten! ) Einsatz dieser Mittel unter den heutigen Bedingungen (systemschaffender Aspekt). Oftmals waren „alte“ Ideen ihrer Zeit weit voraus, und die Systeme arbeiteten, weil die Umsetzung mit nur bedingt tauglichen Materialien und Methoden vorgenommen wurde, 72 3 Methoden und Praxisempfehlungen <?page no="73"?> nicht besonders effizient. Heute aber, mit völlig anderen Möglichkeiten und Materialien, kann eine alte Idee durchaus zur Basis einer anscheinend ganz neuen Technologie werden. Aus der Synektik stammt die Anregung, die bei Vorliegen von Entwick‐ lungswidersprüchen einander widersprechenden Forderungen im Sinne eines Paradoxons zu formulieren. Linde hat diese Stufe unter „Paradoxe Forderung“ bzw. „Konstruktiv-Paradoxe Entwicklungsforderung“ in sein System WOIS® eingebaut. Die Konstruktiv-Paradoxe Forderung hat, ab‐ gesehen von ihrer rein sachlichen Funktion, eine mental sehr wichtige Wirkung: Das Ausweichen in Richtung eines faulen Kompromisses kommt nun überhaupt nicht mehr infrage. So ist es beispielsweise wünschenswert, dass ein Bügeleisen möglichst leicht sein sollte (Bedienkomfort, Bewegungsfreundlichkeit). Dem entgegen steht die Forderung, dass das Bügeleisen die Wäsche zu glätten hat, weshalb es aus konventioneller Sicht schwer sein muss, um genügend Kraft aufzu‐ bringen (Funktionserfüllung, Glättvermögen). Beide Gesichtspunkte gleichzeitig sind offensichtlich nicht so leicht „unter einen Hut“ zu bekommen. Hier hilft die Konstruktiv-Paradoxe Forderung weiter. Sie lautet im vorliegenden Falle: „Kraftvergrößernde Gewichtsredu‐ zierung“. Wichtig ist hier die präzise Formulierung: Eigentlich handelt es sich ja nicht um das Gewicht des Bügeleisens, sondern um die von ihm selbst (nicht durch den starken Arm der treu sorgenden Hausfrau) auszuübende Bügelkraft. Nun fällt das Überwinden der Denkbarriere nicht mehr so schwer: Unter den auch von Linde eingesetzten Altschuller-Lösungsstrategien wählen wir das Prinzip „Impulsarbeitsweise, intermittierende Arbeitsweise“ aus und kommen so zu einem vibrierenden Bügeleisen, bei dem statische Masse durch die in der Abwärts-Phase des Pulsationsvorganges ausgeübte Kraft ersetzt und die Wäsche somit „glattgeklopft“ wird (Beispiel nach: Linde et al. 1994, S. 81). Abb. 5 zeigt das Beispiel in der WOIS®-typischen Art dargestellt: Die kon‐ trär erscheinenden Parameter sind als Zielgrößen (Erhöhung des Glättver‐ mögens, Erhöhung der Bewegungsfreundlichkeit) dem Widerspruchspaar „Die Masse muss eigentlich größer werden, sie soll aber idealerweise reduziert werden“ gegenübergestellt. 73 3.1 Die wichtigsten Kreativitätstechniken <?page no="74"?> Abb. 5 Erfinderisch zu lösen ist der Widerspruch, dass das Bügeleisen sowohl bedienfreundlich, d. h. leicht, als auch Kraft ausübend zu sein hat (nach Linde et al. 1994, S. 81) Die abschließende vereinfachte Übersicht (Abb. 6) zeigt das System WOIS® insgesamt. Zu erkennen sind wiederum die bewusst vorrangig behandelten analytischen Stufen (von Linde „Orientierungsphase“ genannt). Vor allem die ersten fünf Stufen enthalten methodisch viel Neues. Hingegen sind die systemschaffenden Stufen nicht entfernt so originär, sondern sie lehnen sich sehr deutlich an Altschullers Lösungsstrategien an. Die konsequente Arbeit mit WOIS® gehört für Anfänger ganz gewiss nicht zu den einfacheren Übungen. Die oben erläuterten zusätzlichen bzw. wesentlich modifizierten Schritte gestatten jedoch eine derart präzise Konzentration auf den physikalischen Kern des zu lösenden Problems, dass der zunächst hoch erscheinende Aufwand für schwierige Aufgaben gerechtfertigt ist. Die Widerspruchsorientierte Innovationsstrategie hat sich inzwischen bei der Bearbeitung innovativer Vorhaben in zahlreichen Unternehmen bewährt (Linde u. Hill 1993; Linde, Mohr u. Neumann 1994; Drews u. Linde 1995; Linde 1999, 2002). WOIS® wurde bereits auf mehreren Coburger Symposien einem interessierten Fachpublikum in zahlreichen Facetten sowie anhand neuer, überzeugender Praxisbeispiele vorgestellt und näher erläutert. Auf dem 1999er Symposium wurden auch die insbesondere in der systemschaffenden Phase sehr engen Querverbindungen zur Altschul‐ ler-Denkweise (Zobel 1999, S. 148) behandelt. 74 3 Methoden und Praxisempfehlungen <?page no="75"?> 60 Ziel: Erzeugnis / Verfahren / Markt der Zukunft Innovation ⇑ Analogisieren, Variieren, Kombinieren ⇑ (40 Prinzipien (Strategien) sowie Standards sowie Physikalische Effekte) Bekannte Widerspruchslösungen (Prinziplösungen) ⇑⇑ Konstruktiv-Paradoxe Entwicklungsforderung(en) Systemimmanente Widersprüche ⇑⇑ Ideales System ⇑ Anforderungsmatrix ⇑ Entwicklungsgesetze, -strategien, -etappen ⇑ Vorläufer-Generationen ⇑ Analyse des Ist-Zustandes (Strukturierte Systemanalyse, Morphologische Matrix) ⇑ Mega-Trends ⇑ Oberziele, bestimmt anhand von 9 „W“-Fragen ⇑ Ursprüngliche, meist „vergiftete“ Aufgabenstellung Start: Erzeugnis / Verfahren / heutiger Markt Abb. 6 Schematische Darstellung des Ablaufs der Widerspruchsorientierten Innovationsstrategie WOIS nach Linde (Linde u. Hill 1993) Abb. 6 Schematische Darstellung des Ablaufs der Widerspruchsorientierten Innovationsstrategie WOIS nach Linde (Linde u. Hill 1993) 75 3.1 Die wichtigsten Kreativitätstechniken <?page no="76"?> 3.2 Wo verstecken sich die Ideen, und wie finde ich sie? Wir wollen uns jetzt damit befassen, welche für den Praktiker interessanten Theorien es bezüglich der „Verstecke“ pfiffiger Ideen gibt. Auf die bisher behandelten Quellen wird nochmals hingewiesen, jedoch werden die kon‐ troversen Meinungen dazu im Sinne eines kritischen Vergleichs nunmehr zusammenhängend besprochen. 3.2.1 Die Nadel im Heuhaufen: Thomas A. Edison T. A. Edison (1847-1931) wird häufig als der größte Erfinder aller Zeiten bezeichnet. Allerdings sollte uns der ihm nachgesagte Ausspruch, Genie sei „zu 1 % Inspiration und zu 99 % Transpiration“, doch einigermaßen misstrauisch machen, da wir uns ja gerade mit Mitteln und Methoden der systematischen - möglichst nicht gar so schweißtreibenden - Gewinnung kreativer Lösungen befassen wollen. Über Edison kursieren viele Legenden, die seinen Fleiß und seine erfin‐ derische Hartnäckigkeit in strahlendem Lichte erscheinen lassen. Einige - ansonsten durchaus seriöse - Biografen scheinen die Zahl der Versuche, die auf dem Wege zu einem bestimmten erfinderischen Ziel erforderlich waren, geradezu als Qualitätsbeweis für Edisons Vorgehen anzusehen. So schreiben Schreier u. Schreier (1978, S. 76 u. S. 124) voller Bewunderung, dass 6000 Pflanzenfasern nach erfolgtem Verkohlen auf ihre Eignung als Glühfaden für die Kohlefadenlampe durchgeprüft wurden, und dass Edison nach 8000 Versuchen einen neuen Fluoreszenzschirm für Röntgenstrahlen - das Fluoroskop - erfand. Ohne dem großen Erfinder zu nahe treten zu wollen: In methodischer Hinsicht sind derartige Beispiele regelrechte Armutszeugnisse. So hat denn auch Nikola Tesla, dessen Arbeitsweise sich diametral von Edisons Arbeitsweise unterschied, und der einige Zeit bei Edison arbeitete, diese „empirische Filterei“ amüsiert kommentiert: „Wenn Edison eine Nadel in einem Heuhaufen finden müsste, würde er sofort mit dem Eifer einer Biene daran gehen, Halm für Halm zu untersuchen, bis er das gesuchte Objekt gefunden hätte. Ich war bedauernder Zeuge solcher Handlungen und wusste, dass ein wenig Theorie und Berechnung ihm 90 % seiner Arbeit erspart hätte“ (Cheney 1995, S. 52). Nun waren Edison und Tesla in fast jeder Hinsicht - bis auf ihre enorme Arbeitsintensität - völlig unterschiedliche Typen. Edison war, was sein 76 3 Methoden und Praxisempfehlungen <?page no="77"?> Äußeres und seine Kleidung anbelangte, nachlässig bis zur Schlamperei. Geschäftlich war er Tesla überlegen, sogar auf schlitzohrig-brutale Weise. Für den Umbau seiner zunächst störanfälligen Dynamos hatte er Tesla zwar 50 000 $ versprochen, lachte dann aber höhnisch, als Tesla nach Ausführung des Auftrages sein Honorar einfordern wollte („Tesla, Sie verstehen unseren amerikanischen Humor nicht“). Tesla hingegen war ein stets ausgesucht elegant gekleideter Herr, welcher - abgesehen vom oftmals nicht sehr vorteilhaften Verkauf seiner Lizenzen - das für weitere Forschungen benötigte Geld auf gut besuchten Veranstal‐ tungen vom Typ der bis 2004 ausgestrahlten Knoff-Hoff-Show einzutreiben versuchte. In geschäftlicher Hinsicht schrammte er mehrmals hart am Bankrott vorbei, obwohl die Elektrokonzerne, allen voran Westinghouse, Millionen an seinen Entwicklungen verdienten. In fachlicher Hinsicht dif‐ ferierten die beiden großen Erfinder vor allem in der Frage des zu wählenden Elektro-Systems: Edison favorisierte - ungeachtet sich bereits abzeichnen‐ der Mängel - den Gleichstrom, hingegen arbeitete Tesla in Kooperation mit Westinghouse konsequent an der Einführung des zukunftsträchtigen Wechselstromsystems (Cheney 1995). Was uns für unser Thema interessiert, ist jedoch die methodische Seite der Sache. Sehen wir uns noch einmal Abb. 1 an, und es wird klar, warum es für Versuch und Irrtum keine Rechtfertigung gibt. Wo die Lösung liegen könnte, ist nicht bekannt, so dass auch keine Ideen bevorzugt in dieser - unbekannten! - Richtung entstehen können. Im Gegenteil: Auch der Kreative ist nicht pausenlos unkonventionell, und so denkt auch er zunächst in Richtung des Trägheitsvektors, d. h. er beteiligt sich daran, das zu denken, was andere auch schon gedacht haben. Genau in dieser Richtung ist aber die Lösung, gerade, weil das Gebiet bereits „abgeklappert“ ist, gewiss nicht zu finden. Zwar wird ein kluger Kreativer kaum wie Edison arbeiten, son‐ dern manche Versuche wegen vorhersehbarer Erfolglosigkeit gleich ganz weglassen, dennoch bietet Versuch und Irrtum nicht ausreichend Potenzial, sich heute im Sinne einer ernsthaften Methode damit noch näher befassen zu müssen. Immerhin sei eingeräumt, dass im unmittelbaren Zielbereich einer an‐ sonsten streng methodisch (z. B. gemäß TRIZ) durchgeführten Problembe‐ arbeitung gewisse Elemente des Trial-and-Error eine Rolle spielen können. Sehen wir uns dazu noch einmal Abb. 3 an. In der Nähe des IER kommen mehrere Lösungen infrage, die sich voneinander unterscheiden können, so‐ fern sie den Anspruch der Überwindung des systemtypischen Widerspruchs 77 3.2 Wo verstecken sich die Ideen, und wie finde ich sie? <?page no="78"?> erfüllen. Da aber das Suchfeld hier stark eingeengt ist, werden alle überhaupt noch infrage kommenden Lösungen von hoher Qualität sein. Selbst wenn wir uns hier gedanklich noch ein paar halbwegs „wilde“ Versuche gestatten, geschieht dies nun im systematisch geschaffenen Rahmen. Wir sind im Prinzip am Ziel. 3.2.2 Das „klassische“ Brainstorming: Alex Osborn Wir haben uns unter 3.1.1 bereits kurz mit dem Brainstorming befasst. Alex Osborn (1953) entwickelte seine Methode, um die Unzulänglichkeiten der Versuch-und-Irrtum-Methode zu mindern bzw. zu beseitigen. Dies konnte jedoch, so erkennen wir anhand Abb. 1, nur sehr bedingt gelingen. Beim Brainstorming wird ebenfalls stillschweigend davon ausgegangen, dass die Ideen sich irgendwo befinden. Anleitungen zur Vorab-Bestimmung einer zu bevorzugenden Suchrichtung existieren nicht. So liegen denn auch hier die meisten Versuche in Richtung des Trägheitsvektors. Es sind somit Versuche, die sich später - in der Bewertungsphase - als erfolglos herausstellen. Die Methode ist dem Trial-and-Error zwar ein wenig überlegen, sie bringt aber keine prinzipiellen Verbesserungen. Dennoch wollen wir die bedingt positiven Aspekte hier behandeln, da sie für den Praktiker von Wert sein können. In der ersten (der Ideen erzeugenden) Phase des Brainstormings muss auf Kritik generell verzichtet werden. Wird diese Regel streng eingehalten, so fällt die blockierende Wirkung solcher - oft spöttisch oder gar verletzend vorgetragenen - Äußerungen zur jeweiligen Idee weg, was der erwünsch‐ ten Unbefangenheit der Teilnehmer beim Produzieren exotischer Ideen (d. h. beim „Spinnen“) sehr entgegen kommt. Auch werden deutlich mehr Sekundärideen erzeugt (Schneeballeffekt: „Anknüpfend an Deine Idee fällt mir gerade ein, dass wir es an der und der Stelle noch ein bisschen anders machen könnten, etwa so, dann wird es wohl funktionieren“). Die statistische Wahrscheinlichkeit, durch mehr Sekundärideen doch noch einen Treffer zu landen, steigt deshalb. Aber, wie gesagt, auch ein solcher Treffer ist stets ein nur zufällig erzielter Treffer. Unbefriedigend bleibt, dass das „Suchen ohne Verstand“ (Altschuller 1973) zum Prinzip erhoben wird. Die angeblich spektakulären Erfolge der heute überall angewandten Methode beruhen nach den Worten ihres schärfsten Kritikers allein darauf, „dass man Qualität durch Quantität kompensiert“ (Altschuller 1973, S. 36). Daran ändern auch mit viel Geschrei propagierte „moderne“ Varianten dieser Vorgehensweise 78 3 Methoden und Praxisempfehlungen <?page no="79"?> nichts, zumal sie oft nur mit Dutzenden schlecht bezahlter „Ideensammler“ arbeiten (Schnetzler 2004). Um die Qualität der Ideen geht es in der zweiten Phase des Brainstor‐ mings, der Bewertungsphase. Bei fachgerechter Durchführung ist die Phase II zeitlich (und, wenn möglich, auch personell) streng von der voran gegangenen Phase der Ideenfindung getrennt. Osborn hat uns nun mit sei‐ nen „Spornfragen“ (Größer? Kleiner? Umgruppierung? Kombination? Umkeh‐ rung? Ersetzen? Zweckentfremdung? Nachahmung? ) ein Anleitungsschema geliefert, mit dessen Hilfe jede Idee modifiziert werden kann. Solche Modi‐ fikationen können manchmal von der Startidee wegführen und schließlich durchaus plausible Lösungen liefern. Aber auch hier gilt das Prinzip: Müll rein, Müll raus. Was hilft die beste Modifikation, wenn die Startidee nur zweit- oder drittklassig war? Nach meiner in vielen Seminaren und bei der Betreuung von Original-Unter‐ nehmensthemen gewonnenen Erfahrung sind Elemente des Brainstorming dennoch sinnvoll, und zwar immer dann, wenn man der Ideen erzeugenden Phase I eine im Team durchzuführende kritische Systemanalyse voranschal‐ tet (siehe dazu 3.3.2 und 3.3.4). Unerfahrene Moderatoren wissen das jedoch nicht, und beginnen etwa so: „Also, Sie kennen ja das heute zu behandelnde Thema, wir knabbern schließlich schon lange genug daran herum. Bitte äußern Sie jetzt ganz unbefangen Ihre Ideen; Frau Schimmelpfennig wird sie, für alle gut sichtbar, hier an der Tafel notieren“. Ein solcher Start ist kaum sinnvoll, aus methodischer Sicht sogar falsch. Dies liegt an der verfehlten Annahme, der mit der Sache befasste Kreis wisse tatsächlich bereits alles Wichtige zum Thema. Ich habe immer wieder festgestellt, dass jeder Teilnehmer die Sache anders auffasst bzw. aus der Sicht seiner Teilkenntnisse betrachtet. Auch die Vorstellungen bezüglich des anzusteuernden Ziels sind keineswegs einheitlich. Falls der Moderator zugleich der Chef ist, kommt der Aspekt des nicht vollständig offenbarten Herrschaftswissens hinzu: Um immer etwas mehr als die Teilnehmer zu wissen, sagt er nicht alles, gerade weil er das zu verbessernde bzw. zu verändernde Systems genauer als alle anderen kennt. Insbesondere aber hat sich meist noch niemand Gedanken darüber gemacht, welche physika‐ lischen Ursachen für die Mängel des zu verändernden Systems eigentlich verantwortlich sind. Genau deshalb ist eine gut moderierte, im Team durch‐ 79 3.2 Wo verstecken sich die Ideen, und wie finde ich sie? <?page no="80"?> zuführende kritische Systemanalyse das A und O in der „Vor-Start“-Phase eines Brainstormings. Über den methodischen Wert hinaus lässt sich mit dieser gemeinsam erarbeiteten Systemanalyse ein mental sehr wichtiger Effekt erzielen. Das Thema ist nun nicht mehr das vorgegebene, vom Chef befohlene, immer mal wieder erörterte, sondern „unser“ Thema. Damit wird die Eigenmotivation der Teilnehmer enorm gestärkt. Sie fühlen sich nun ganz persönlich ange‐ sprochen und gefordert. Der unmittelbar methodische Wert einer vorgeschalteten Systemanalyse wird uns klar, wenn wir Abb. 3 betrachten. Auch wenn wir noch fast nichts von der widerspruchsorientierten Vorgehensweise (3.1.2) wissen, sehen wir, dass eine derartige Vorbereitungsphase wünschenswert ist, eben weil sie uns vom Trägheitsvektor fernhält. Genau diese Vorbereitung liefert uns die Systemanalyse. Wenn wir uns gemeinsam überlegen, was die physikalischen Ursachen für das mangelhafte Funktionieren unseres derzeitigen Systems sind, und was wir idealer Weise erreichen wollen, dann wissen wir, in welcher Richtung unsere Suche verlaufen sollte. Wir haben den 360°-Suchraum des üblichen Brainstormings auf einen schmalen Sektor reduziert. Es ist nun die Kunst des trainierten und mit der widerspruchorientierten Denkweise vertrauten Moderators, beim ab jetzt „ganz normal“ ablaufenden Brainstorming keine Ausbrüche in Richtung des Trägheitsvektors mehr zuzulassen. Dies erfordert Übung und Einfühlungsvermögen, denn stets missachten einige Teilnehmer die Ergebnisse der Systemanalyse und spinnen weiterhin wild drauflos. Um sie nicht zu frustrieren, helfe ich mir dann mit einer so genannten Ideenbank, d. h. solche Ideen werden, für alle gut sichtbar, separat notiert. Ich bitte dann den betreffenden Teilnehmer, sich auf den weiteren Verlauf des Brainstormings innerhalb des Suchsektors zu konzentrieren, und auf eine sofortige Erläuterung seiner Idee zu verzichten. Das ist zwar eigentlich eine Selbstverständlichkeit, denn wir befinden uns ja in der Ideenerzeugungs‐ phase - nur wird das Kritik- und Erläuterungsverbot von den Teilnehmern eben immer wieder missachtet. Sich in dieser Phase auf Detaildiskussionen einzulassen, torpediert den Erfolg der Veranstaltung. Selbstverständlich wird die Diskussion später, in der Ideenbewertungsphase, nachgeholt. Bei sachgerechter Durchführung haben wir es dann in der zweiten, der Ideenbewertungs-Phase, durchaus nicht mit Dutzenden oder Hunderten von Ideen - wie beim gewöhnlichen Brainstorming - zu tun, sondern nur noch mit vergleichsweise wenigen. Sie sind per se hochwertig, weil innerhalb des 80 3 Methoden und Praxisempfehlungen <?page no="81"?> Suchsektors entstanden. Die mühsame Suche nach einem Goldkörnchen in einem Haufen tauben Gesteins entfällt. Eine kurze abschließende Betrach‐ tung der außerhalb des Suchsektors entstandenen und separat notierten „Nebenbei“-Ideen zeigt sodann allen Teilnehmern, warum diese Ideen - von seltenen Ausnahmen abgesehen - nicht in die nähere Betrachtung einzubeziehen sind. Die geschilderte Aufwertung des klassischen Brainstormings durch eine vorgeschaltete Systemanalyse ist nach meiner Erfahrung für komplexere Themen, wie z. B. Systemverbesserungen grundsätzlicher Art bzw. Prozess- und Verfahrensentwicklungen, unerlässlich. Anders steht es um das spon‐ tane Entwickeln von Gadgets bzw. läppischen oder modischen Ramsch- Artikeln. Für solche Zwecke mag es funktionieren, eine wild zusammen gewürfelte jugendliche Truppe freiweg drauflos spinnen zu lassen, wie z. B. von Schnetzler (2004) beschrieben. Ein neues T-Shirt oder eine verrückte Kappe mag für Trendscouts oder für Marketing-Hirsche interessant sein, richtig ernst muss man so etwas aber nicht nehmen. In der mir bekannten methodischen Literatur gibt es jedenfalls bis auf ein eigenes Kapitel (Zobel 2019, S. 279) noch keine Belege für den Einsatz des Brainstormings bei der Bearbeitung wirklich anspruchsvoller Aufgaben. Mein dortiger Text erläu‐ tert Einzelheiten zur Anwendung der vorzuschaltenden Systemanalyse, also zum oben kurz beschriebenen Wirken eines Moderators mit „Altschuller im Hinterkopf “. 3.2.3 Die morphologische Gesamtübersicht: Fritz Zwicky Die von Fritz Zwicky (1966) zu hoher Vollendung gebrachte Morphologi‐ sche Methode interessiert uns hier in einem speziellen, für den Praktiker besonders wichtigen Punkt. Die Rede ist von der bereits kurz (unter 3.1.1) besprochenen Morphologischen Tabelle. Bei der Morphologischen Tabelle werden die Hauptparameter (die Ord‐ nenden Gesichtspunkte, die Variablen) eines Systems gegen die für jeden Parameter bereits bekannten - sowie die zwar noch nicht bekannten, aber denkbaren - Varianten aufgetragen. Diese werden dann, Zeile für Zeile, zueinander in Beziehung gesetzt. Zwicky ging davon aus, dass ein System umfassend betrachtet werden muss, und nannte die zu diesem Zweck mög‐ lichst vollständig ausgefüllte Morphologische Tabelle das Hauptinstrument der Methode der Feldüberdeckung. „Feld“ steht hier gewissermaßen für das Areal, in dem die Assoziationen stattfinden können und sollen, d. h. für das 81 3.2 Wo verstecken sich die Ideen, und wie finde ich sie? <?page no="82"?> Feld, auf dem sich die gesuchten Ideen befinden. Sehen wir uns dazu Zwickys Erläuterung an: „Wollen wir uns vorstellen, was diese Methode bedeutet, … so brauchen wir als Beispiel nur an die Institution des Geschworenengerichtes zu denken. Ihr liegt doch die Überzeugung zugrunde, daß jeder Geschworene, sofern er nicht geistesgestört ist oder an einen gegebenen Fall mit unüberwindlichen Vorurteilen herangeht, in der Lage ist, sich in jedem noch so verwickelten Fall ein richtiges Bild von den in Frage stehenden Umständen zu machen, vorausgesetzt, er durchdenkt alle bekannten Faktoren. Wenn er sich dabei … allein auf seinen guten Menschenverstand verlassen muß, so ist das im wesentlichen gleichwertig mit der Aussage, daß er sich der Methode der Feldüberdeckung bedient. Dies wird besonders augenscheinlich in solchen Kriminalfällen, in denen es verfehlt wäre, nur in einigen wenigen Richtungen nach den Urhebern des Verbrechens zu suchen. In allen Richtungen muss man suchen - also das gesamte Feld überdecken, wie wir Morphologen sagen. Anderenfalls wird, wie es leider oft genug geschehen ist, der Falsche verurteilt oder gar gehängt“ (Zwicky 1966, S. 46). Zwicky hat nun seine Morphologischen Tabellen, genannter Zielstellung entsprechend, zu hoher Perfektion gebracht, und sie vor allem auch in der eigenen erfinderischen Arbeit erfolgreich angewandt. Er führt in seinem Buch (Zwicky 1966) zahlreiche praktische Beispiele an. Von der Gesamtdar‐ stellung aller denkbaren regulären Polyeder über die Integrale Planung und Konstruktion (erläutert an sämtliche Bedingungen und Randbedingengen für die Idealkonstruktion und den Idealbetrieb von Teleskopen) bis hin zu den Strahltriebwerken, hat Zwicky die unterschiedlichsten Gebiete mit Hilfe der immer gleichen Methode bearbeitet. Die Triebwerke wurden vor Beginn der Zwickyschen Untersuchungen in der Realität durch nur drei Typen re‐ präsentiert: die Rakete, den Propellerantrieb durch Kolbenkraftmaschinen, und das so genannte Aerodukt (besser bekannt als Staustrahltriebwerk oder ramjet). Da Zwicky zu Beginn des Zweiten Weltkrieges in den USA an diesem Komplex arbeitete, waren ihm zwei weitere inzwischen fertig gestellte deutsche Entwicklungen nicht bekannt geworden: der zum Antrieb von Dü‐ senflugzeugen verwendete „Aeroturbo“-Strahler sowie der von P. Schmidt erfundene Aeroresonator (den Zwicky übrigens, in Unkenntnis der Arbeiten von Schmidt, in Pasadena noch einmal erfand). Zwicky baute nun das dreidimensionale Analogon zur Morphologischen Tabelle auf, einen Morphologischen Kasten. Es ergab sich, dass dieser 82 3 Methoden und Praxisempfehlungen <?page no="83"?> Kasten insgesamt 576 - bis auf die fünf bekannten, nur theoretischen - Varianten von Strahltriebwerken enthielt, die sich „durch das Vakuum, die Atmosphäre, das Wasser und die Erde fortzubewegen und zu beschleunigen imstande sind“ (Zwicky 1966, S. 252). Auf diese - zunächst rein formale - Weise ergaben sich „ganze Klassen von Geräten wie der Aeropuls, der Hydropuls, der Hydroresonator, der Hydroturbostrahler, der Terrapuls und viele andere, von denen in der Zwischenzeit einige Dutzend mit Erfolg gebaut worden sind“ (Zwicky 1962). Meisterhaftes leistete Zwicky, als er die Morphologie auf seine Spezialge‐ biete Astrophysik und Astronomie anwandte: „Ich arbeitete fröhlich drauf los und, mich auf meine „morphologisch gerichtete Intui‐ tion“ verlassend, sagte ich schon in den dreißiger Jahren die Existenz von negativen Protonen, einer Vielzahl von Elementarteilchen, verschiedenartigen kooperativen Phänomenen, Neutronensternen, schwachen blauen (Humason-Zwicky-) Sternen, Zwerg -, Pygmäen- und Gnom-Galaxien, intergalaktischer Materie und ganz neu‐ artiger Verteilung und Häufigkeit von Galaxienhaufen, sowie deren Dimensionen und Massen voraus, Schlussfolgerungen, die sich in der Folge samt und sonders bewahrheitet haben“ (Zwicky 1971, S. 173). Wir sehen an diesen Zitaten, dass der zweifellos hoch begabte Zwicky von seinen morphologischen Arbeiten und ihren Ergebnissen geradezu berauscht war, was in methodischer Hinsicht sowie in Anbetracht der prak‐ tisch bewiesenen Effizienz verständlich ist. Zwicky war als Persönlichkeit übrigens ein hochgradiger Exzentriker. Einerseits erklärte er jedermann (Zwicky 1971) schlichtweg zum Genie, nicht zuletzt natürlich sich selbst; an‐ dererseits machte es ihm im gleichen Atemzuge nichts aus, seine Landsleute hemmungslos zu beschimpfen: „Als Lokalpatrioten hielten wir bei unseren vielen Besuchen in der Schweiz unseren Mitbürgern vor, sie wären das dümmste Volk auf Erden“ (Zwicky 1971, S. 168). So wird denn auch verständlich, dass nicht alle, die ihn kannten, begeistert von ihm waren. Zwicky hat den Totalitätsanspruch für sich und seine Methode niemals aufgegeben. So kommentierte er denn auch den Versuch von John Strong, eine gewissermaßen „Bescheidene Morphologie“ zu betreiben (Strong 1964), eher reserviert. Strong sagte sich, dass für eine konkrete Entwicklungsauf‐ gabe nicht unbedingt alle infrage kommenden Möglichkeiten betrachtet werden müssen, sondern dass bei einer gut umschriebenen Sachlage eine Vorauswahl sinnvoll erscheint, was dazu führt, dass in der Tabelle nicht alle überhaupt theoretisch denkbaren Variablen-Varianten-Kombinationen 83 3.2 Wo verstecken sich die Ideen, und wie finde ich sie? <?page no="84"?> aufgelistet werden. „Es gelang ihm auf diese Weise immerhin, zum erstenmal Ritzmaschinen zu konstruieren, mit denen optisch vollkommene Beugungsgit‐ ter hergestellt werden können“, räumt Zwicky (1966, S. 255) leicht zähneknir‐ schend ein. Offensichtlich kam auch Zwicky mit seinem Totalitätsanspruch nicht daran vorbei, manchmal eben doch Kompromisse zu machen: „Ich bedaure gelegentlich, so viel Nachdruck auf die Notwendigkeit einer totalen Durchmusterung der verschiedenen Aspekte des Lebens gelegt zu haben. Jedes Mal wenn ich mit einigen Morphologen zusammensitze und, um zu irgendeinem Ent‐ scheid zu kommen, einen bestimmten begrenzten Vorschlag mache, ohne denselben nach den Regeln der Kunst morphologisch optimal zu begründen, springt sicher immer einer hoch und foppt mich mit der Frage: ‘Ist das Alles? ‘“ (Zwicky 1971). Da wir nun - bei allem Selbstbewusstsein - uns nicht zu den Genies, sondern besten Falles zu den Talenten rechnen können, dürfte auch für uns diese „Bescheidene Morphologie“ das Mittel der Wahl sein, wenn wir ein praktisches Problem bearbeiten. Ich halte die Übersetzung von „Moderate Morphology“ übrigens für nicht geglückt und schlage vor, dass wir besser von „Angemessener Morphologie“ sprechen sollten (den praktischen Ver‐ hältnissen angepasst, und damit angemessen). Betrachten wir dazu abschließend ein Beispiel. Stellen wir uns vor, dass wir das Luftschiff entscheidend verbessern wollen. Wir erarbeiten zu diesem Zweck eine Morphologische Tabelle, die durchaus nicht alle Parameter ent‐ halten muss, wohl aber die funktionell wichtigsten. Die von uns zu treffende Auswahl der relevanten Parameter ist der entscheidende Arbeitsschritt, denn es hat natürlich kaum Sinn, beispielsweise die Begriffe „Auftrieb“ und „Gondel“ auf die hierarchisch gleiche Stufe zu setzen: Auftrieb ist für alle Luftfahrzeuge, die nach dem Prinzip „leichter als Luft“ funktionieren, der physikalisch wichtigste Parameter überhaupt, hingegen ist die Gestaltung der Gondel ein im Vergleich dazu untergeordnetes konstruktives Detail. Die Gondel gehört damit nicht in unsere, sondern besten Falles in eine weitere Tabelle, die sich mit konstruktiven Einzelheiten befasst. Was wir uns vor Beginn der Arbeit sonst noch klar machen sollten, sind die Unterschiede zwischen Flugzeug und Luftschiff. Beim Flugzeug (Prinzip: Schwerer als Luft, ca. 900 km/ h) ist der aerodynamische Effekt, und damit insbesondere Form und Profil der Flügel und des Rumpfes, absolut bestimmend. Hingegen sind diese Gesichtspunkte für das Luftschiff (Prinzip: Leichter als Luft, 90 bis 110 km/ h) zweitrangig. Eine hier nicht zu behandelnde Ausnahme bildet ein in der Schweiz entwickeltes Hybridflugzeug, das auf der Kombination 84 3 Methoden und Praxisempfehlungen <?page no="85"?> des Auftriebs durch Gas und des aerodynamischen Auftriebs beruht, d. h. ein gewissermaßen durch eine partielle Traggasfüllung leichter gemachtes, relativ plumpes, nicht sehr schnelles Flugzeug. Nun wissen wir genug, um eine zwar nicht vollständige, für unsere Zwecke aber nützliche Tabelle aufstellen zu können. Einen der Hauptpara‐ meter haben wir schon genannt, den Auftrieb. Überlegen wir also, welche Parameter auf hierarchisch gleicher Ebene unbedingt noch berücksichtigt werden müssen. Wir kommen auf die Begriffe Energiequelle, denn das System Luftschiff soll ja unabhängig operieren können, sowie Stabilität, weil klar sein dürfte bzw. bekanntlich bereits für die früheren „Zeppeline“ galt, dass ein derart großes Gebilde stabil sein muss und dennoch nicht schwer sein darf. Die genannten drei Begriffe sollten als Hauptparameter für eine hierarchisch „ganz oben“ angesiedelte Tabelle genügen. Begriffe wie Antriebsmotor und Steuerung gehören bereits in die nächstniedere Ebene und erfordern separate Tabellen. Nachdem wir unsere drei Hauptparameter eingetragen haben, überlegen wir nunmehr, welche Varianten (Ausführungsformen) für jeden Parameter uns bereits bekannt sind, und tragen diese in die betreffenden Zeilen ein. Sodann fügen wir, etwas weiter rechts, die nach unserer Kenntnis bisher noch nicht praktizierten, uns jedoch - mindestens theoretisch - denkbar erscheinenden Varianten hinzu. Wir erhalten dann unsere Morphologische Tabelle für das Luftschiff (Tab. 2): Parameter (Ordnende Gesichts‐ punkte, Va‐ riable) Varianten (Ausführungsformen) Auftrieb Helium Wasserstoff Methan Heißluft Vakuum Stabilität Spanten „Blimp“ Halbstar‐ rer Kiel Füllung mit Schaum‐ struktur Energie‐ quelle Kerosin Wasserstoff Akku Brenn‐ stoffzelle Solaren‐ ergie Tab. 2 Morphologische Tabelle zur prinzipiellen Verbesserung eines Luftschif‐ fes 85 3.2 Wo verstecken sich die Ideen, und wie finde ich sie? <?page no="86"?> Auch weil es sich hier um ein didaktisches Beispiel handelt, haben wir die Zahl der in Betracht zu ziehenden Varianten stark begrenzt. Selbstverständ‐ lich sind viel mehr möglich, aber wir hatten uns ja darauf verständigt, nicht Totalität anzustreben, sondern das Prinzip der „Angemessenen Morpholo‐ gie“ anzuwenden, d. h. die Praxisnähe des Verfahrens bei reduzierter Zahl denkbarer Kombinationen zu prüfen. Um die denkbaren Kombinationen auf Tauglichkeit zu untersuchen, kann nun jeder Tabellenplatz jeder Zeile mit jedem anderen Tabellenplatz jeder anderen Zeile verbunden werden. So ergeben sich sinnvolle neben nicht sinnhaltigen Kombinationen. Verbinden wir beispielsweise „Blimp“ (ein mit Traggas direkt prall gefülltes Luftschiff heißt im Englischen blimp) mit „Va‐ kuum“, so haben wir eine anscheinend nicht sinnhaltige Kombination vor uns, da ein „mit Vakuum gefülltes“ Luftschiff sofort vom äußeren Luftdruck zerquetscht würde. Andererseits wissen wir, dass wir mit Wasserstoff bereits das leichteste bekannte Gas in Betracht gezogen haben, welches demgemäß auch den größten Auftrieb bringt. Helium, Heißluft und Methan sind deutlich schwerer und kommen, wenn es um maximalen Auftrieb zwecks maximaler Tragfähigkeit des Luftschiffes geht, nicht in Betracht. Uns lässt deshalb der Gedanke „Vakuum“ nicht mehr los, denn leichter als Wasserstoff ist eben nur verdünnter Wasserstoff oder gar Vakuum. Gesucht wird deshalb nach einer Verknüpfung für „Vakuum“, die nicht mit dem Zerquetschen des Luftschiffes einhergeht. Wir stoßen auf „Füllung mit Schaumstruktur“, d. h. eine den Innenraum des Luftschiffes innerhalb der Hülle ausfüllende, sehr leichte und dennoch gegen den äußeren Luftdruck stabile poröse Masse, gewissermaßen einen trockenen bzw. erstarrten Schaum. Nunmehr sind wir an einem Punkt angelangt, der einerseits typisch ist für die Leistungsfähigkeit, andererseits aber auch für die Grenzen der Methode. Zwar wird das Prinzip der möglichen Lösung klar umrissen, nicht jedoch die Art der praktischen Ausführung beschrieben. In unserem Falle erkennen wir, dass es hier darauf ankommt, pro Volumeneinheit Luftschiff-Füllung leichter sein zu müssen als Wasserstoff, d. h. die Summe des Gewichtes der blasigen Masse und der unter Vakuum stehenden Blasen selbst muss geringer sein als ein gleich großes, mit Wasserstoff gefülltes Raumelement. Die Arbeit beginnt hier also erst, denn ein solcher Schaumstoff muss demnach extrem leicht und zugleich ungewöhnlich stabil sein. Fragen wir einen Schaumstoff- Experten nach den praktischen Aussichten, so wird er wohl nur müde lächeln und uns mitteilen, dass die derzeit besten Schaumstoffe, die für 86 3 Methoden und Praxisempfehlungen <?page no="87"?> einen derartigen Zweck zur Verfügung stünden, noch um zwei Potenzen zu schwer sind. Dennoch wird ein wirklich leidenschaftlicher Fachmann diese Fragestellung niemals mehr vergessen. Er wird sie als persönliche Herausforderung ansehen und intensiv an der Entwicklung ultraleichter Schaumstoffe arbeiten, bis ihm vielleicht doch eines Tages die Lösung des Problems gelingt. Wir erkennen: Morphologie liefert keineswegs etwa fertige Erfindungen, sondern „nur“ ungewöhnlich kreative Aufgabenstel‐ lungen sowie Erfolg versprechende Lösungsansätze. Der Leser wird sich jetzt fragen, wie denn nun - die Herstellbarkeit eines derart leichten und zugleich stabilen Schaumstoffes vorausgesetzt - das Vakuum in die Blasen kommen soll? Bei Gasblasen ist die Sache völlig klar: Mit Gas, meist Luft oder Stickstoff, möglich ist auch Wasserstoff, wird ein flüssiger Kunststoff aufgeschäumt; der Kunststoff härtet aus, und die erstarrten Blasen enthalten dann eben das betreffende Gas. Hier aber funktioniert das nicht so einfach: Wie will man mit Vakuum (dem idealen „Nicht-Gas“) einen flüssigen Kunststoff „aufschäumen“? Ich überlasse die Lösung dem kreativen Leser und gebe dazu lediglich den Hinweis, bei der Interpretation des Terminus „Vakuum“ nicht allzu streng vorzugehen, sondern mit besonderem Vorteil die Strategie „Nicht perfekte Lösung“ anzuwenden (siehe 3.4.7). Übrigens liefert bereits eine solche „angemessene“ - aus praktischen Erwägungen nicht vollständige - Morphologische Tabelle stets mehrere interessante Querverbindungen. Sie haben mit unserem Extrembeispiel Vakuum nichts zu tun, sondern knüpfen an bekannte Techniken an. Die Kunst ist nur, nicht alles gar so wörtlich zu nehmen, d. h. seine Phantasie innerhalb des durch die Morphologie gegebenen Rahmens spielen zu lassen. So bedeutet denn beispielsweise Solarenergie nicht zwingend eine Bestü‐ ckung mit Solarzellen (oder den inzwischen weit entwickelten, ebenfalls Solarstrom liefernden, gedruckten Spezialfolien), sondern kann auch eine einfache schwarze Folie als Luftschiffhülle bedeuten, die sich im Sonnenlicht erwärmt. Damit kommt dann zwanglos die Verknüpfung zur Heißluft (erweitert: zum erwärmten Traggas) zustande. Eine derart praktizierte kostenlose Erwärmung des Traggases führt zur Verstärkung des Auftriebs. Wird jedoch die entgegen gesetzte Bewegungsrichtung gewünscht, d.h., soll der Landevorgang eingeleitet werden, so stört der verstärkte Auftrieb. Da kein Gas abgelassen werden soll, bedeutet dies, dass die Luftschiffhülle nicht vollständig aus schwarzer Folie bestehen darf, sondern nur zur Hälfte. Die andere Hälfte hat dann z. B. aus verspiegelter Folie zu bestehen, welche 87 3.2 Wo verstecken sich die Ideen, und wie finde ich sie? <?page no="88"?> das Sonnenlicht fast vollständig reflektiert. Die Trennlinie zwischen beiden Folienarten müsste längs über den gesamten Schiffskörper verlaufen. Je nach gewünschter vertikaler Bewegungsrichtung (auf bzw. ab) wird die schwarze oder die verspiegelte Seite der Sonne zugewandt, indem das Luftschiff um seine Längsachse gedreht wird. Eine solche Konstruktion erfordert, dass weder Gondel noch Antriebs- und Steuerungselemente starr am Schiffskörper befestigt sein dürfen, damit die Drehung im beschriebenen Sinne ohne Störung der anderen Hauptfunktionen vonstatten gehen kann. Daraus ergeben sich weitere erfinderische, mindestens aber konstruktive Aufgaben. Wir sehen, dass der sachgerechte Einsatz der zunächst schema‐ tisch anmutenden Morphologischen Tabelle durchaus nicht schematisch verlaufen muss. Vielmehr bekommt die schöpferische Phantasie mit der Morphologie einen Rahmen, innerhalb dessen besonders hochwertige Ideen entstehen. Deren Verfolgung erfordert zwar noch sehr viel konstruktive Arbeit, aber ohne Morphologische Tabelle hätten wir die exemplarisch beschriebenen Basisideen wohl kaum gefunden. 3.2.4 Verschiedene Blickwinkel: Edward de Bono Edward de Bono - Jahrgang 1930, geboren auf Malta, Arzt, Psychologe und Kreativitätsexperte - hat sich in seinen Kreativitätsseminaren und zahlrei‐ chen Büchern immer wieder mit dem Denken auseinandergesetzt. Wir haben seine Ansichten nebst Begründung bereits kennengelernt: Intelligenz und Denkfähigkeit sind keineswegs dasselbe (de Bono 1995, S. 16), sondern verhalten sich manchmal sogar umgekehrt proportional zueinander. Des‐ halb warnt de Bono davor, ohne Denkvorbereitung, allein vertrauend auf Intelligenz und die Fähigkeit zur unbefangenen Produktion von Ideen, mit der Suche zu beginnen. Seine Schriften befassen sich mehr oder minder mit der Schulung der Denkfähigkeit, weil diese als Schlüssel zur qualifizierten Ideensuche angesehen wird. So fand de Bono innerhalb seines Konzeptes „Laterales Denken“ eine Methode, die inzwischen Eingang in viele Kreati‐ vitätsseminare gefunden hat, und die von gewissen Kreativitätstrainern sogar als wahre Wunderwaffe verkauft wird. Eine solche ist sie allerdings nicht. Jedoch halte ich sie für eine bemerkenswerte und nützliche Methode, und zwar nicht nur zur Schulung des Denkvermögens, sondern auch zur kritischen Analyse eines Systems, einer Aufgabe oder einer Situation. Sie sollte deshalb der eigentlichen Ideensuche vorgeschaltet werden. 88 3 Methoden und Praxisempfehlungen <?page no="89"?> Die Rede ist von der „Methode der sechs Hüte“. De Bono setzt sechs Teilnehmern eines Kreativitätsseminars jeweils - symbolisch oder auch real - verschiedenfarbige Hüte auf. Jeder Hut bzw. jede Farbe symbolisiert eine andere Einstellung bzw. Denkhaltung. Die Teilnehmer werden vom Trainer informiert, wer für die nun folgende Übung welche Rolle bzw. Denk‐ haltung zum gestellten Thema einzunehmen hat. So kommt es, dass - von zufälligen Übereinstimmungen abgesehen - jeder Teilnehmer veranlasst wird, einmal ganz anders zu denken und zu argumentieren, als er sonst, seinen Einstellungen und Neigungen folgend, denken, argumentieren und vorgehen würde. Die Muster des Herangehens bzw. der Einstellungen lauten in der heute gebräuchlichen Form (Denkwerkzeuge nach: www.denkclub.de): Hut 1 Gefühle, Intuitionen und Vermutungen zum Thema: Befürchtungen, Hoffnungen, Zweifel - nur ganz kurz zu äußern, ohne jede Begründung! Hut 2 Informationen: Welche Informationen habe ich? Welche fehlen mir noch? Wie komme ich an sie heran? Hut 3 Objektiv negative Aspekte des Problems oder der Fragestellung: Gefah‐ ren, Risiken, Fehl-Passungen, schädliche Wirkungen. Hut 4 Objektiv positive Aspekte des Problems oder der Fragestellung: Chancen, Werte, Möglichkeiten. Hut 5 Kreativität, Wachstum, neue Ideen: Alternativen, Wunschdenken, Pro‐ vokation. Hut 6 Überblick, Meta-Ebene: Zusammenhänge; Was haben wir jetzt? Wo stehen wir? Was gibt es zu tun? Die Reihenfolge kann - passend zum Thema - modifiziert werden. Für technische und wissenschaftliche Zwecke scheint mir die hier gewählte Reihenfolge allerdings sinnvoll zu sein. Wir sehen, dass die Methode nicht unmittelbar der sofortigen Ideenge‐ winnung dient, wie etwa das Brainstorming. Vielmehr wird das Thema unter mehreren, möglichst unterschiedlichen, Aspekten zunächst einmal gründlich beleuchtet, untersucht und durchdacht. Dabei tauchen Fragen auf, und die Teilnehmer versuchen Antworten zu finden. Diese Antworten haben oft bereits den Charakter von Ideen, und zwar solchen, deren Niveau deutlich höher liegt als das der in einem gewöhnlichen Brainstorming erzeugten Ideen. Der Grund ist klar: Die Methode der sechs Hüte ist 89 3.2 Wo verstecken sich die Ideen, und wie finde ich sie? <?page no="90"?> eigentlich eine systemanalytische Methode, und sie hätte ebensogut auch im Kapitel 3.3 abgehandelt werden können. Der Vorteil dieser Art von Methoden liegt eben gerade darin, dass sie zu den richtigen Fragen führen, und „die richtige Frage ist oft mehr als die halbe Antwort“. Dieses Bonmot wird mehreren Wissenschaftlern zugeschrieben; ich verzichte deshalb auf eine Quellenangabe. 3.2.5 Die Oase der falschen Verheißung: David Perkins Ähnlich wie Edward de Bono hat sich David Perkins (2001) intensiv mit dem Denken befasst, insbesondere mit Strategien zur Verbesserung der Denk‐ fähigkeit sowie solchen zum Vermeiden von Denkfallen. Perkins hat sich demgemäß weniger mit dem Auffinden völlig neuer Ideen, sondern meist mit der Frage befasst, wo denn nun die unkonventionellen Lösungen für schwierige Denksportaufgaben zu suchen seien. Nach meiner Auffassung ist sein dafür entwickeltes „Klondike-Modell“ derart bildhaft und einprägsam, dass ich es meinen Lesern nicht vorenthalten möchte. Auch sind Analogien zu den Schwierigkeiten bei der Suche nach völlig neuen Ideen unverkennbar. Perkins vergleicht die Suche nach einem Geistesblitz, der einem aus der jeweiligen Denkfalle helfen könnte, mit der Goldsuche am Klondike River, jener wilden Gegend im Yukon Territory, in der 1896 Gold gefunden wurde. Der nach Entdeckung der Fundstätte einsetzende Goldrausch wird von Jack London („Lockruf des Goldes“) recht eindrucksvoll beschrieben: Wenige wurden reich, die meisten blieben bitterarm. Perkins (2001, S. 47 ff.) beschreibt nun - in Analogie zu den Herausforderungen des innovativen Denkens - vier Möglichkeiten, sich in einem derartigen (wie der Mineraloge sagt: goldhöffigen) Gebiet zu verhalten: ■ Die Wildnis der Möglichkeiten: Es gibt sehr viele Orte, an denen der Digger suchen kann. Weil das Territorium groß ist, muss er, in Erman‐ gelung sicherer Indizien für Areale mit höherer Goldkonzentration, „auf Verdacht“ eine gewisse Auswahl treffen. Er kann nicht überall suchen, wird sich jedoch bemühen, an möglichst vielen Orten zu suchen, um seine Chancen zu erhöhen. In ähnlicher Weise gibt es bei Denkproblemen viele verlockende Richtungen, die man einschlagen könnte, aber nur wenige dort zu findende Lösungen, die tauglich bzw. hochwertig sind. 90 3 Methoden und Praxisempfehlungen <?page no="91"?> ■ Das spurenlose Plateau: Es gibt zwar Anzeichen, dass tatsächlich ir‐ gendwo Gold vorhanden sein muss (Goldspuren im Flusskies), aber der Digger kann damit nichts Rechtes anfangen. Ist das wenige Gold für eine ernsthafte Suche eventuell gar kein Anlass, weil ja schließlich viele Flüsse Goldspuren führen? Soll er nun flussaufwärts gehen, der erhofften Ader entgegen? Soll er flussabwärts gehen in der Hoffnung, dass sich dort mehr Gold angesammelt hat? Aber keine der Möglichkei‐ ten muss zum Erfolg führen. Perkins nennt die Situation „spurenloses Plateau“ oder „Plateaufalle“. Eine Gegend, in der es wenig Gold und keine vernünftigen Hinweise gibt, wo in der Nähe mehr Gold sein könnte, gleicht (so Perkins) einer „kognitiven Wildnis ohne jede Orien‐ tierungshilfe“. ■ Die enge Gedankenschlucht: Die Herausforderung liegt darin, dass das Gold ganz woanders sein könnte - jenseits der Bergkette im nächsten Tal, an der Quelle eines anderen Flusses, weit entfernt von den Orten, an denen der Digger gerade sucht, vielleicht in einem ganz anderen Canyon. Schlimmer noch: Der Digger, mit dem Flusskies an „seiner“ Stelle befasst, ahnt gar nichts von den anderen Möglichkeiten. Er befindet sich in einer „engen Gedankenschlucht“, in einer „Canyon- Falle“. ■ Die Oase der falschen Verheißung: Sie ist dadurch gekennzeichnet, dass der Digger den gegenwärtigen Schürfort ganz einfach für zu verlockend hält, als in einer anderen Gegend weiterzusuchen. Es gibt Indizien für Gold, vielleicht sogar so viel Gold, den Digger eine Weile über Wasser zu halten und ihn weiter hoffen zu lassen. Er wagt ganz einfach nicht, den Ort zu verlassen, da er die Hoffnung hat, mit der nächsten Schaufel auf die ersehnte Goldader zu stoßen. Die Analogie zur Oase ist einleuchtend: In der Wüste ist die Oase nicht Endstation, sondern nur Zwischenstation auf einem langen Weg. Es fällt dem Reisenden jedoch ungeheuer schwer, die Oase zu verlassen und zuversichtlich weiter durch den Sand zu stapfen, dem fernen - nur mühsam zu erreichenden - Ziel entgegen. Analogie: Der Mensch gerät durch nahe liegende Antworten in Versuchung, die Suche nach einer noch besseren oder gar annähernd idealen Lösung sofort abzubrechen. Ein von mir hoch geschätzter, methodisch interessierter Entwicklungsleiter hat mich auf diese Perkinsschen Analogien aufmerksam gemacht. Insbeson‐ dere die „Oase der falschen Verheißung“ spielt nach seiner Erfahrung in der 91 3.2 Wo verstecken sich die Ideen, und wie finde ich sie? <?page no="92"?> täglichen Praxis eine große Rolle. Viele seiner Konstrukteure neigen dazu, nachdem sie eine Aufgabe erhalten haben, sich sofort an den Computer zu setzen und ohne langes Überlegen mit dem Konstruieren zu beginnen. Damit ist die Richtung bereits fixiert. Nun wird eine Lösung entwickelt, die vielleicht sogar einigermaßen tauglich ist. Indessen hätte eine sorgfältige Analyse des Gesamtsystems sicherlich Anhaltspunkte dafür geliefert, wel‐ che andere Entwicklungsrichtung voraussichtlich besser gewesen wäre. Ich komme im Kapitel „Systemanalyse“ noch einmal darauf zurück. Auch die anderen Analogien sind für unser methodisches Verständnis hilfreich. Die „Wildnis der Möglichkeiten“ symbolisiert, dass Versuch und Irrtum - aber auch ein gewöhnliches Brainstorming - wenig aussichtsreiche Methoden sind; in dieser Richtung tendiert auch das „Spurenlose Plateau“. Die „Enge Gedankenschlucht“ symbolisiert hingegen in geradezu exzellen‐ ter Weise das, was wir gewöhnlich als Blockierung oder Betriebsblindheit zu bezeichnen pflegen. Beide Bezeichnungen sind außerordentlich bildhaft und bedürfen keiner näheren Erklärung. 3.2.6 Das Ideale Endresultat: Genrich S. Altschuller Das sicherlich konsequenteste Modell hat G.S. Altschuller (1926 - 1998) geschaffen. Wir haben uns unter 3.1.2 bereits näher mit der TRIZ und dem ARIZ befasst. Hier wollen wir näher auf die Frage eingehen, wie gewissermaßen „vorgeprüfte“ - voraussehbar hochwertige - Ideen gesucht und gefunden werden können. Die vielen beim Trial and Error sowie beim gewöhnlichen Brainstorming entstehenden Ideen sind, wie wir er‐ kannt haben, überwiegend zweit- und drittrangig. Ihre Bewertung führt überwiegend zum Aussortieren. Dieser Schritt ist nicht nur mühselig und aufwändig, sondern für die Ideenlieferanten, die natürlich an ihren „Babys“ hängen, frustrierend. Altschullers System garantiert hingegen, dass zweit- und drittrangige Ideen gar nicht erst entstehen. Sehen wir uns deshalb noch einmal Abb. 1 an. Wünschenswert wäre, wenn man vorher wüsste, wo in etwa sich die Lösung befinden könnte. Dann brauchte man nicht mehr (ungewollt) in Richtung des Trägheitsvektors oder - „auf Verdacht“ - irgendwo zu suchen, sondern könnte gezielt in Richtung der wünschenswerten Lösung arbeiten. In der Realität ist die Situation noch ungünstiger, als in Abb. 1 dargestellt: 92 3 Methoden und Praxisempfehlungen <?page no="93"?> Eigentlich haben wir es nicht mit einem zweidimensionalen 360°-Such‐ feld, sondern mit einem dreidimensionalen Suchraum zu tun. Diese Idee kam mir, als ich auf eine Karikatur von Lengren stieß (Abb. 7). Abb. 7 Originalunterschrift: „Zum Schießen, weit und breit nichts zum Schie‐ ßen! “ (Lengren 1980, S. 249) Methodischer Bezug: Das Wild befindet sich nicht dort, wo es von den Jägern vermutet wird. Der konventionelle Suchwinkel umfasst beinahe den gesamten Gesichtskreis, aber das Wild - die gesuchte Lösung - befindet sich prompt im toten Winkel. Wer „um die Ecke“ denken kann, ist im Vorteil: siehe den leicht grinsenden Elefanten, siehe den Elefantenführer, der aber „denen da oben“ nicht Bescheid sagt Wir haben also allen Grund, nicht wild drauflos zu arbeiten, sondern uns erst einmal Gedanken darüber zu machen, wo die Lösung zu suchen sein 93 3.2 Wo verstecken sich die Ideen, und wie finde ich sie? <?page no="94"?> könnte. Nur nach einer solchen Vorbereitung besteht die Chance, gemäß Abb. 3 (Kap. 3.1.2) verfahren zu können. Es gelingt uns dann, in einem vergleichsweise schmalen Suchwinkel in Richtung auf das Ideale Endresultat zu arbeiten, und durch Lösen des sys‐ temspezifischen Widerspruchs eine gute bis sehr gute Lösung anzusteuern. Wir gelangen auf diese Weise zu wenigen, dafür aber garantiert hochwerti‐ gen Ideen. Mit der für ein solch effektives Arbeiten zwingend erforderlichen Vorbereitung, der oben bereits kurz beschriebenen Systemanalyse, wollen wir uns im folgenden Kapitel befassen. 3.3 Ein gut überlegter Start schlägt jede „geniale“ Spontanidee Die wichtigste Voraussetzung für erfolgreiches Arbeiten, jedenfalls in Wis‐ senschaft, Technik und Organisation, ist die Kenntnis des Systems, das wir zu verbessern, zu verändern oder zu ersetzen trachten. Die häufig geäußerte Meinung, man wisse ja schließlich als Fachmann sowieso über den gegenwärtigen Stand Bescheid, ist eine schöne Täuschung. In der Regel entdeckt der Bearbeiter oder das Bearbeiterteam erst im Verlaufe einer sorgfältig durchgeführten Systemanalyse den naturgesetzmäßigen - und damit eigentlichen - Grund für die Existenz und die Auswirkungen der Schwachpunkte des Systems. Nur in Auswertung dieser analytisch gewonnenen Kenntnisse kann mit Aussicht auf Erfolg definiert werden, wohin die Reise gehen soll: „Wenn man nicht weiß, wohin man geht, landet man irgendwo anders“ (L. J. Peter). 3.3.1 Das Pareto-Prinzip Der italienische Ingenieur, Soziologe und Ökonom Vilfredo Pareto (1848-1923) entdeckte und beschrieb eine Wahrscheinlichkeitsverteilung, die, wie sich inzwischen zeigte, für zahlreiche Gebiete des Lebens, der Tech‐ nik und der Wissenschaften gültig ist. Sie wird heute als Pareto-Verteilung, oft auch als Pareto-Prinzip bezeichnet. Die Pareto-Verteilung beschreibt das statistische Phänomen, dass eine kleine Anzahl von hohen Werten einer Wertemenge mehr zu deren Gesamt‐ wert beiträgt als die hohe Anzahl der kleinen Werte dieser Menge. Pareto untersuchte zunächst die Verteilung des Volksvermögens in Italien und fand 94 3 Methoden und Praxisempfehlungen <?page no="95"?> heraus, dass ca. 80 % des Gesamtvermögens sich im Besitz von 20 % der Familien befanden, hingegen nur 20 % des Vermögens sich auf 80 % aller Familien verteilten. Banken, so seine Schlussfolgerung, sollten sich deshalb vorzugsweise um diese 20 % der Familien kümmern, und die Auftragslage sei damit gesichert - kommt uns das nicht irgendwie bekannt vor? Die daraus abgeleitete „80 : 20-Regel“, eben das Pareto-Prinzip, gilt nun für sehr viele Anwendungsfälle; fast könnte man von einem universellen Prinzip sprechen. So bedient beispielsweise ein Versandhandel 80 % seiner Kunden mit einem Arbeitsaufwand von ca. 20 % des Gesamtaufwandes. Die weitaus meiste Arbeit (80 %) verursachen die wenigen Kunden, die sich beschweren und die Lieferungen reklamieren. In einem durchschnittlichen Haushalt entfallen 80 % der Gesamtkosten auf 20 % der Kostenpositionen. In einer Wohnung weisen 20 % der Teppichfläche 80 % der Gesamtabnut‐ zung auf. In vielen Unternehmen werden 80 % des Umsatzes mit 20 % der Kunden erwirtschaftet. Und schließlich: 80 % eines Textes werden mit 20 % der insgesamt eingesetzten Wörter bestritten (Koch 1998). Bezogen auf unsere Aufgabenstellung zeigt nun die Erfahrung, dass beim Entwickeln einer neuen Lösung bisher meist nur ca. 20 % des insgesamt betriebenen - materiellen und geistigen - Aufwandes in der systemanalytischen Stufe eingesetzt werden, aber etwa 80 % aller Fehler in genau dieser Stufe entstehen. Diese Verteilung gilt für den Abschnitt vom Start bis zu der für die Weiterbearbeitung ausgewählten Prinziplösung. Ab dann folgt die Realisierungsphase. Sie erfordert in erheblichem Maße (auch) konventionelles Handeln nach den Regeln des jeweiligen Fachge‐ bietes. In dieser Realisierungsphase ist aber nichts mehr zu retten, falls - nach ungenügender Systemanalyse - in der Ideenfindungsphase eine unbefriedigende Prinziplösung generiert und für die Weiterbearbeitung ausgewählt worden ist. In der Praxis führt dies zu einem geradezu paradoxen Verhalten der Verantwortlichen. Wird nach einem halben Jahr bemerkt, dass die gewählte Arbeitsrichtung voraussichtlich doch nicht zu einem hochwertigen Ergebnis führen kann, so wird der Fehler keineswegs sofort eingestanden, geschweige denn korrigiert. Vielmehr wird argumentiert: „Wir haben bis hierher schon eine Million investiert, und wir können nicht immer wieder von vorn anfangen. Lasst uns die Sache deshalb erst einmal ordnungsgemäß zu Ende bringen“. Auf diese Weise wird immer wieder Geld in Größenordnungen verschleudert, denn die im Ergebnis solchen Handelns entstehende mittelprächtige Lösung 95 3.3 Ein gut überlegter Start schlägt jede „geniale“ Spontanidee <?page no="96"?> wird uns nicht lange erfreuen, sondern schnell von einer weit besseren Konkurrenzlösung verdrängt werden. Deshalb tun wir gut daran, unsere ganze Aufmerksamkeit auf eine sorgfältige und sachgerechte Systemanalyse zu verwenden, ehe wir uns mit der Suche nach der prinzipiellen Lösungsidee und der Festlegung der Bearbeitungsrichtung befassen. 3.3.2 Systemanalyse. Schädliche und nützliche Effekte Wir haben im Abschnitt 3.1.2 bereits die widerspruchsorientierte Denkweise gemäß G.S. Altschuller (TRIZ und ARIZ) kennen gelernt. Der ARIZ ist die von Altschuller entwickelte quasi-algorithmische, zur systematischen Bearbeitung anspruchsvoller Themen empfohlene Abfolge aller systemanal‐ ytischen und System schaffenden Arbeitsschritte. Wir haben ihn in einer noch einigermaßen überschaubaren Frühform aus dem Jahre 1968 behandelt (3.1.2). Inzwischen wird für kompliziertere Aufgaben meist der bereits ziemlich umfangreiche ARIZ 77 eingesetzt (Zobel 2019, 2018), oder gar mit dem ARIZ 85 oder noch moderneren Versionen gearbeitet. Altschullers russisch-amerikanische Schüler wurden nicht müde, immer umfangreichere Aktualisierungen zu verfassen. Die neueste Version weist inzwischen mehr als hundert Arbeitsschritte auf. Als Praktiker kann ich diese extrem umfang‐ reichen Versionen nicht empfehlen. Der Bearbeiter erstickt regelrecht in den methodischen Einzelheiten. Es besteht dann die Gefahr, dass er sich nach kurzer Zeit ganz von der Methode abwendet. Das aber wäre höchst fatal, denn das Grundmuster von TRIZ und ARIZ liefert tatsächlich den Schlüssel zum Erfolg. Heute wird der Auffassung professioneller Problemlöser Rechnung ge‐ tragen, eine gut formulierte Aufgabe sei bereits mehr als die halbe Lösung. Dem entsprechend wurde inzwischen analog zum systemanalytischen (ers‐ ten) Teil des ARIZ eine vergleichsweise kurze Version entwickelt, die als „Innovationscheckliste“ bezeichnet wird. Ich stütze mich bei der folgenden gestrafften Fassung auf Terninko, Zusman u. Zlotin (1998, S. 69 ff.), ergänzt um von Gundlach, Nähler und Montua sowie von mir vorgenommene Praxisanpassungen: I Kurze Beschreibung des Problems Das Problem ist ganz kurz in umgangssprachlichen Formulierungen zu beschreiben (Fachbegriffe „kanalisieren“ das Denken). 96 3 Methoden und Praxisempfehlungen <?page no="97"?> II Informationen zum System II.1 Systemname: eingängige, zutreffende Standardbezeichnung II. 2 Systemstruktur: Elemente des Systems; Untersysteme; Zusammenhänge zwischen den Elementen. Können strukturelle Änderungen am System das Problem beseitigen oder die schädlichen Auswirkungen mindern? II. 3 Funktionsweise des Systems: Primär nützliche Funktion (Hauptaufgabe). Funktionsweise im ak‐ tiven Zustand. Warum diese Funktionsweise? Welche schädlichen (Neben)-Funktionen sind gegeben/ zu beachten? Teilsystem-Funk‐ tionsanalyse. II. 4 Systemumgebung: Obersystem? Systeme in der näheren Umgebung? Umgebungsbe‐ dingungen, welche die Funktion des Systems beeinflussen, d. h. entweder sichern oder stören. III Informationen zur Problemsituation III. 1 Beschreibung des zu lösenden Problems Typische Möglichkeiten: ■ Eine Fehlfunktion oder schädliche Wirkung ist zu beseitigen, ■ eine Fehlerursache ist zu finden, ■ ein Produkt, Prozess, Bauteil oder eine Operation ist zu verbessern, ■ Informationen über den Zustand des Objekts sind zu ermitteln. III. 2 Mechanismen, die das Problem verursachen: Ursache-Wirkungs-Beziehungen, die das Problem hervorrufen. Physikalischer Kern der störenden Funktion. Bei Unklarheiten hilft die Antizipierende Fehleranalyse: Es wird nicht wie üblich gefragt: „Was ist die Ursache des Problems“, sondern es ist zu überlegen, wie die am System beobachtete schädliche Wirkung hervorgerufen werden kann („Fehler zum Zwecke ihrer Beseitigung erfinden“). III. 3 Konsequenzen, falls das Problem ungelöst bleibt. III. 4 Entwicklungsgeschichte des Problems: Beschreibung der Systemgeschichte. Welche Schritte haben zum erstmaligen Auftreten des Problems geführt? Generationenbetrach‐ 97 3.3 Ein gut überlegter Start schlägt jede „geniale“ Spontanidee <?page no="98"?> tung. Vorangegangene Lösungsversuche (eigene und fremde) mit ihren Auswirkungen: Warum konnte mit diesen Lösungen das Problem nicht beseitigt werden? Führt eine bekannte Lösung zu neuen (anderen) Proble‐ men, so ist zu prüfen, ob sich diese leichter als das Kernproblem lösen lassen (Übergang von der Aufgabe zur Umgehungsaufgabe). III. 5 Systeme mit ähnlicher Problemstellung Wo existieren Systeme mit ähnlicher Problemstellung? Wie wurde das Problem dort gelöst? Ist dieser Lösungsweg direkt (oder nach sinngemäß erfolgter Modifikation) auf unser Problem übertragbar? III. 6 Weitere zu lösende Probleme Falls das Problem unlösbar erscheint bzw. ist: Kann das System auch auf andere Art und Weise verbessert werden? Bringen Verän‐ derungen in den Sub- oder Supersystemen etwas? Können Alterna‐ tivfunktionen das Problem beheben? Eventuell müssen hier neue Zielsetzungen formuliert werden. IV Beschreibung des Idealen Endresultats ■ Ein Element, das eine notwendige, nützliche Funktion erfüllt, ist nicht mehr erforderlich, ■ Ein Element, das einen schädlichen Effekt verursacht, wird aus dem System entfernt, ■ Ein schädlicher Effekt eliminiert sich selbst. „Das Ideale System ist nicht vorhanden, aber die Funktion wird erfüllt“. V Verfügbare Ressourcen Infrage kommen: Stoffe, Felder, Raum, Zeit, Informationen, Funktionen. Um nichts zu vergessen, kann eine so genannte Ressourcen-Checkliste eingesetzt werden (siehe z.B. Herb, Herb u. Kohnhauser 2000). VI Zulässige Systemänderungen Art und Ausmaß der erlaubten Änderungen. Systemgrenzen. Was darf auf keinen Fall geändert werden? Restriktionen („ABER“, d. h.: Anforderungen, 98 3 Methoden und Praxisempfehlungen <?page no="99"?> Bedingungen, Erwartungen, Restriktionen; mit diesem Terminus operierte insbesondere H.-J. Rindfleisch (Rindfleisch u. Thiel 1994)). VII Kriterien zur Auswahl von Lösungskonzepten Welche Maßstäbe sind an die entwickelten Lösungskonzepte anzulegen? ■ Technische Eigenschaften, Leistungsparameter, ■ Ökonomische/ finanzielle Aspekte, ■ Zeitliche Vorgaben, ■ Grad der Neuheit des Systems, ■ Erscheinungsbild, Marketingaspekte, ■ Bedienung, Wartung, Service. Nach eigenen Erfahrungen ist eine solche Innovations-Checkliste, die sich durchaus als Mini-ARIZ im systemanalytischen Bereich bezeichnen ließe, in der Praxis der Bearbeitung von Unternehmensthemen recht nützlich. Alle Fragen sind so beschaffen, dass die betrieblichen Experten vom Methodiker bei der Stange gehalten werden können. Dies ist wichtig, denn betriebliche und andere Experten neigen dazu, ihr Expertentum durch weitschweifige Detailausführungen in einem - wie sie meinen - glänzenden Lichte zu präsentieren. Mithilfe der Checkliste kann der Methodiker die allzu detail‐ verliebten Experten dann immer wieder auf die Kernpunkte zurückführen. Die stufenweise Bearbeitung der Fragen liefert ein für alle Beteiligten akzeptables Gerüst. Mit dessen Hilfe lassen sich auch jene im Laufe des Bearbeitungsprozesses immer wieder auftauchenden Spontanideen, die wenig oder gar nichts mit einer guten Lösung zu tun haben, in Grenzen halten. Selbstverständlich erfüllt der ARIZ 77 (Altschuller 1984, Zobel 2006 a) diese Anforderungen, rein methodisch gesehen, in einem weit höheren Maße - nur ist er recht umfangreich, so dass die Team-Mitglieder bei der Bearbeitung konkreter Unternehmensthemen, für die ja nicht unbegrenzt Zeit zur Verfügung steht, manchmal auf halber Strecke die Lust verlieren. Wir sehen, dass die Innovationscheckliste, was ihre wesentlichen Schritte betrifft, mit der Definition des Idealen Endresultats endet (Stufe IV). Dies ist, methodisch gesehen, nicht konsequent. Wir sollten deshalb als krönenden Abschluss unserer Systemanalyse noch den zu lösenden Widerspruch defi‐ nieren und hinzufügen. Methodisch vorteilhaft und zudem logisch wäre, ihn zwischen den jetzigen Stufen VI und VII einzufügen. Dort wird dann defi‐ 99 3.3 Ein gut überlegter Start schlägt jede „geniale“ Spontanidee <?page no="100"?> niert, je nach Situation, dass das System z. B. offen und dennoch geschlossen, heiß und zugleich kalt, durchsichtig und dennoch undurchsichtig zu sein hat. Auch die so genannten Paradox-konstruktiven Entwicklungsforderungen, von Linde (1993) eingeführt, sind für Widerspruchsformulierungen gut geeignet („Ferne Nähe, Offene Geschlossenheit, Rasender Stillstand, Feuchte Trockenheit“). Es sei daran erinnert, dass es sich bei dieser Art von Wi‐ dersprüchen nicht um logische, sondern um dialektische Widersprüche han‐ delt. Derartige Widersprüche hindern uns lediglich daran, bei Anwendung konventioneller, herkömmlicher Mittel das Ideal zu erreichen. Hingegen lassen sie sich beim Einsatz erfinderischer bzw. äquivalenter Mittel mithilfe geeigneter Lösungsstrategien (Kapitel 3. 4) qualifiziert überwinden. Haben wir den Widerspruch zutreffend definiert, so brauchen wir - eine gewisse Fertigkeit in der Anwendung systematischer Strategien vorausgesetzt - unsere Arbeit nunmehr nicht unbedingt an der entsprechenden Stelle bzw. auf der entsprechenden Stufe des ARIZ fortzusetzen. Vielmehr können wir jetzt mit recht guten Erfolgsaussichten einzelne TRIZ-Werkzeuge anwenden. Die wichtigsten habe ich in den Abschnitten 3.4.1 bis 3.4.9 beschrieben. Es bleibt dem Nutzer an sich überlassen, welche Werkzeuge er bevorzugt. Nach eigenen Erfahrungen ist jedoch zu empfehlen, mit den zehn einfachen Standards zum Lösen von Erfindungsaufgaben (s. 3.4.1) zu beginnen. Es ist verblüffend, wie oft wir es mit Standardsituationen zu tun haben, für die natürlich zunächst bewährte Standardlösungen eingesetzt werden sollten. Nunmehr, sofern sich noch keine Lösung abzeichnet, sind die vier Separati‐ onsprinzipien durchzugehen (3.4.2). Erst dann sollten wir die Prinzipien zum Lösen Technischer Widersprüche, von denen ich hier nur die wichtigsten (3.4.3 bis 3.4.7; 3.4.9) behandeln will, zu Rate ziehen. Zweckmäßig ist, auch wenn sich die Lösung - z. B. mit Hilfe der Separationsprinzipien - bereits in einem frühen Stadium abzeichnet, zur Kontrolle stets noch zwei oder drei derartiger Werkzeuge zusätzlich zu nutzen. Man gewinnt, sofern ein zusätzliches Werkzeug zu ähnlichen Schlüssen bzw. Prinziplösungen führt, die beruhigende Gewissheit, sich nicht geirrt zu haben. 3.3.3 Die geschichtliche Betrachtungsweise Eine sehr empfehlenswerte Strategie ist, sich gründlich mit der Geschichte eines Systems (eines Verfahrens oder Produktes, einer Methode, einer Organisation) zu befassen. Besser als mit den Worten von Heinrich Heine lässt sich diese Empfehlung kaum begründen: 100 3 Methoden und Praxisempfehlungen <?page no="101"?> „Der heutige Tag ist ein Resultat des gestrigen. Was dieser gewollt hat, müssen wir erforschen, wenn wir zu wissen wünschen, was jener will.“ In den dreißiger Jahren des vorigen Jahrhunderts studierte mein Vater an der Universität Jena. Ein von ihm sehr verehrter Professor hatte, wie mir mein Vater oft erzählte, den Leitspruch: „Der geschichtslose Mensch ist entweder ein Kind oder ein Barbar.“ Es gibt viele Gründe, warum wir nicht einfach „drauflos“ arbeiten sollten. Stets sollten wir uns zunächst mit der Geschichte unseres Systems befassen. Vielleicht ist das, was wir uns spontan ausgedacht haben, längst bekannt. In vielen Fällen ist wenigstens die Grundidee zu einem vermeintlich neuen System nicht neu. Denken wir nur an Leonardo da Vinci und seine zahlreichen Erfindungen. Das Argument, dies seien ja ganz überwiegend „Papiererfindungen“ gewesen (auch „Schreibtischerfindungen“ genannt), ist nicht stichhaltig, zumal sich inzwischen herausgestellt hat, dass viele der heute nach Leonardos Skizzen versuchsweise gebauten Funktionsmuster tatsächlich funktionierten. In der Patentspruchpraxis werden jedenfalls auch beliebig alte Quellen berücksichtigt, wenn es um die Frage der Schutzfähigkeit einer neu vorge‐ schlagenen, aber bei strenger Auslegung nicht gar so neuen Lösung geht. Natürlich wird bei der Entscheidung stets beachtet, welcher konkrete Mit‐ tel-Zweck-Zusammenhang in Rede steht. Ungenaue, nur skizzenhafte ältere Quellen sind dann in solchen Fällen nicht unbedingt neuheitsschädlich. Völlig unabhängig vom schutzrechtlichen Aspekt sollte sich der Erfinder stets für die Gründe interessieren, warum sich die manchmal genialen Ideen unserer Vorgänger nicht durchsetzen konnten. Meist stellt sich dann heraus, dass die damals verfügbaren Methoden, Materialien und Technologien für eine erfolgreiche Überführung in die Praxis einfach nicht geeignet waren bzw. nicht ausreichten. Mit modernen Mitteln, Methoden und Materialien hingegen lässt sich ein damals noch nicht erfolgreiches System heute oftmals überzeugend umsetzen. Die Historische Methode gehört zu denjenigen Elementarmethoden, die der Kreative niemals unberücksichtigt lassen sollte. Die historische Analyse eines Technischen Systems zeigt uns, welche Bedürfnisse seinerzeit vorla‐ gen, welche Widersprüche dem System eigen waren, wie sie gelöst wurden, und welche neuen Widersprüche sich mit der Einführung des nunmehr veränderten Systems neu herausbildeten (Linde u. Hill 1993). Widersprüche 101 3.3 Ein gut überlegter Start schlägt jede „geniale“ Spontanidee <?page no="102"?> und ihre Historie lassen erkennen, ob konsequent gehandelt wurde, oder unnötig viel Zeit bis zur Lösung der Widersprüche verstrich. G. S. Altschuller schrieb dazu, wie erwähnt: „Das Zuspätkommen von Erfindungen ist geradezu ein ehernes Gesetz“. Die Historische Methode betrachtet, konsequent angewandt, nicht nur die Vergangenheit, sondern auch die Gegenwart und die Zukunft (Was war? Was ist? Was wird sein? ). In diesem Sinne ist Prognostik eine in die Zukunft gerichtete Anwendung der Historischen Methode. Allerdings erliegen nicht wenige Zukunftsforscher der Versuchung, die zukünftige Entwicklung einfach nur als eine - fast lineare - Fortsetzung der abgelaufe‐ nen sowie der gegenwärtigen Entwicklung anzusehen. Derartige Prognosen erweisen sich sehr häufig als falsch, weil (neben exponentieller statt linearer Entwicklung der überschaubaren Techniken) die nicht vorhersehbaren, völlig neuen Entwicklungsrichtungen unberücksichtigt bleiben. Aber auch das Umgekehrte passiert: Einige Zukunftsforscher waren vor vierzig bis fünfzig Jahren allzu optimistisch. Sie prognostizierten für das Jahr 2000 die großflächige Bewässerung der Wüsten, die Existenz funktionsfähiger Kreativitätsautomaten bzw. wirklich intelligenter Roboter für den Hausge‐ brauch sowie die fast routinemäßige Durchführung interplanetarer Reisen. Zukunftsforschung wird dennoch auch weiterhin unverdrossen betrieben. Dabei wäre es sinnvoller, sich überwiegend auf die Analyse der Vergangen‐ heit zu konzentrieren, um Anregungen für die Gestaltung unserer heutigen Arbeit zu erhalten. Immerhin gestattet die Historische Methode, die gesamte Entwicklung ei‐ nes technischen Objektes/ Verfahrens von der Idee über die Stufen: Konstruk‐ tion - Nutzung - beginnender moralischer Verschleiß - „Vergreisungspunkt“ - Verschrottung - Schrottnutzung so genau zu verfolgen, dass rechtzeitig Schlüsse gezogen werden können: Spätestens ab wann ist erfinderisches Arbeiten zum Aufbau eines neuen Systems erforderlich, weil konventionel‐ les Optimieren nicht mehr funktioniert? Schrauber (1985) lieferte eine Reihe eindrucksvoller Ergänzungen zur Historischen Methode, speziell zur Lebensgeschichte Technischer Systeme. Folgende Aspekte sind besonders hervorzuheben: ■ Jedes Technische System strebt im Verlaufe seiner Evolution einem Sättigungswert zu. ■ Immer kleinere Leistungssteigerungen erfordern immer größere Anst‐ rengungen bzw. stets steigenden Aufwand. 102 3 Methoden und Praxisempfehlungen <?page no="103"?> ■ Es gibt innerhalb einer Systemgeneration Grenzen, die wegen der Ausschöpfung der Möglichkeiten des zugrunde liegenden Wirkprinzips nicht überschritten werden können. Was dann zwangsläufig folgt, ist als qualitativer Sprung zu beschreiben, wobei, über längere Zeit gesehen, dennoch die Feststellung von Bernal gilt: „Der technische Fortschritt macht keine sehr großen Sprünge, sondern er verläuft in Tausenden von kleinen … Veränderungen.“ ■ Für die Wirtschaftspraxis von Bedeutung ist, den richtigen Zeitpunkt für den Übergang von der vorliegenden Entwicklungskurve zur nächst‐ höheren zu bestimmen (mit „Entwicklungskurve“ ist hier die allgemein bekannte S-Kurve gemeint; sie gilt für Marktperioden von Produkten wie auch für die Lebenszyklen Technischer Systeme). Der Übergang zur neuen Technik erfolgt mit großer Wahrscheinlichkeit in einem bemerkenswert schmalen Bereich der betreffenden Leistungsgrenze des alten Systems (nach Schrauber (1985, S. 22)). An den letzt genannten Gesichtspunkt anknüpfend, entwickelte Schrauber ein faszinierendes Bild: Im Ergebnis einer Analyse sehr verschiedenartiger technischer Systeme (so z. B. Lichtquellen, elektronische Bauelemente, Verkehrsflugzeuge, Präzisi‐ onsuhren, Tieftemperaturverfahren, Reifencord-Materialien) zeigt sich, dass zum Zeitpunkt des Erreichens von ca. 85 % der Leistungsgrenze eines Sys‐ tems die neue Technik bereits verfügbar und ökonomisch nutzbar sein muss. Vor diesem Zeitpunkt verfügt die alte Technik meist noch über Vorteile, und die neue Technik hat es entsprechend schwer, sich durchzusetzen. Danach steigt die Wahrscheinlichkeit stark an, dass die Konkurrenz neue Lösungen findet und konsequent nutzt. Wer den „85-%-Punkt“ verschläft, büßt deshalb in aller Regel seine Konkurrenzfähigkeit ein. Nicht übersehen werden sollten allerdings die Schwächen neuer Systeme. Störanfälligkeit und fehlende Wirtschaftlichkeit zum Überleitungszeitpunkt führen nicht selten dazu, dass die neue Technik zunächst wieder fallen gelassen wird. Hinzu kommt die wohl eher subjektiv erklärbare Tatsache, dass Basisinnovationen, die während ihrer Anfangsentwicklung nicht gleich überzeugen, häufig für nicht notwendig gehalten werden. Als in den achtzi‐ ger Jahren des 19. Jahrhunderts in Berlin die ersten Telefonleitungen verlegt wurden, interessierte sich kaum jemand für die neue Technik. Auch die geschäftlichen Möglichkeiten einer fernmündlichen Kommunikation wur‐ den vollständig verkannt. Das erste Telefonbuch von Berlin war ein dünnes Heftchen. Es führte 88 Anschlüsse auf. Die wenigen privaten Besitzer von 103 3.3 Ein gut überlegter Start schlägt jede „geniale“ Spontanidee <?page no="104"?> Fernsprechapparaten galten damals - besten Falles - als etwas seltsame Typen. Parallel dazu wirkt der Provokationseffekt: Die beginnende Einführung so mancher Erfindung stellt eine extreme Herausforderung an die Vertreter der alten Technik dar. Jene Fachleute, die in oft jahrzehntelanger Arbeit ein bestimmtes System ausbauten, es dabei besser und besser beherrschen lernten, sind buchstäblich mit dem Herzen dabei, und versuchen ihr geliebtes Arbeitsgebiet zu erhalten. Die etablierte Technik wird noch einmal forciert, so dass manche Weiterentwicklungen fast wie völlig neue Generationen wir‐ ken (Leuchtstofflampe - Halogenglühlampe; Transistor - Nuvistorröhre; Filmkamera -Videokamera). Frappierende Beispiele zur 85-%-Regel zeigen, dass ihre Anwendung im Rahmen der Historischen Methode auch aus einem weiteren Blickwinkel für den Kreativen von hohem Praxiswert ist (Schrauber 1985): ■ Düsenverkehrsflugzeuge haben eine Maximalgeschwindigkeit, die bei der Schallgeschwindigkeit liegt („Mach 1“). In 11 000 m Höhe werden real etwa 900 km/ h geflogen. Das Verhältnis zur Maximalgeschwindig‐ keit liegt somit bei Mach 0,86 = 86 %. ■ Die Lichtausbeute von Leuchtstofflampen wird durch technologische Verbesserungen noch immer erhöht. Verbesserungen auf 90 bis 100 Im/ W sind wirtschaftlich sinnvoll. Die Leistungsgrenzwerte liegen bei 115 Im/ W. Die realen Spitzensysteme sollten demnach bei 78 bis 87 % der theoretischen Maximalleistung arbeiten. Offenbar sind Arbeitsbereiche um etwa 85 % der jeweiligen Maximal‐ leistung effektiv. Die restlichen 15 % fungieren als Leistungsreserve. Im direkten Sinne gehören zur Historischen Methode auch die ideenge‐ schichtlichen Studien. Sie sind in der analytischen Phase aktuell, und wirken sich dann - sofern die richtigen Schlussfolgerungen gezogen werden - in der synthetischen Phase unmittelbar positiv auf die Entwicklung des neuen Systems aus. Bei anspruchsvolleren ideengeschichtlichen Studien sollten nicht nur die rein technikgeschichtlichen, sondern alle Umstände betrachtet werden (z. B. die Persönlichkeit des Kreativen, dessen materielle und soziale Bedingungen, methodisches Instrumentarium, Höhe der geistigen Leistung unter Berücksichtigung des verfügbaren Wissens). So kann es beispielsweise recht nützlich sein, sich mit Persönlichkeit und Arbeitsweise von C. F. Gauß vertraut zu machen. Wir wissen, dass er ein großer Mathematiker war. Was 104 3 Methoden und Praxisempfehlungen <?page no="105"?> wir meist nicht wissen, ist, dass er stets bescheiden blieb, auch als er bereits weltberühmt war. Er schrieb: „So hoffe ich, zum Beispiel die Redaktion der Volkszählung, Geburts- und Sterbelisten in hiesigen Landen zu bekommen, nicht als Amt, sondern als Satisfaktion, mich für die Vorteile, die ich hier genieße, einigermaßen nützlich zu machen“. Gilde trifft wohl den Kern, wenn er diese Passage wie folgt kommentiert: „Als Gauß dies schrieb, war er nicht etwa ein junger Anfänger, sondern anerkannt der größte lebende Mathematiker. Es lohnt sich, den Satz nochmals zu lesen. Er zeigt auch eine bestimmte Einstellung zur Gesellschaft. Fachlich wusste Gauß, dass aus fast jeder Tätigkeit mit Zahlen für ihn eine neue Erkenntnis entstand. Mir scheint auch, ob eine Arbeit wissenschaftlich ist oder nicht, hängt von dem ab, der sie macht“ (Gilde 1985, S. 83). Für den Praktiker wichtig sind heute vor allem ideengeschichtliche Studien, welche die Entwicklung eines technischen Gedankens unter historischen sowie denk- und erfindungsmethodischen Aspekten darstellen. Derart an‐ gelegte Studien analysieren Haupt- und Nebenwege der Entwicklung, Irr‐ tümer, Fehlschläge, auch die praktischen Folgen des Vorliegens technischer Vorurteile. Das Werden, Wachsen und Vergehen Technischer Systeme wird aber nicht nur unter historischen Aspekten betrachtet, sondern es wird auch der - oft erst heute erkennbare -methodische Bezug hergestellt. Der eigent‐ liche Wert solcher Studien wird erst an der Nahtstelle zur synthetischen Phase sichtbar: Der Kreative kann für die eigene Arbeit aus den Fehlern, Irrwegen und methodischen Schwächen seiner Vorgänger viel lernen. Als nicht ganz ernst gemeintes, aber vielleicht gerade deshalb didaktisch interessantes Beispiel zur Historischen Methode wollen wir uns abschlie‐ ßend die Entwicklung des „Töpfchens“ seit etwa 1900 ansehen. Gerade an solchen einfachen Gegenständen des täglichen Gebrauches lassen sich Wege und Irrwege der technischen Entwicklung besonders anschaulich demons‐ trieren. Abb. 8 zeigt unten mittig das Ausgangsmodell: bauchiges Töpfchen aus emailliertem Stahl mit offensichtlich viel zu kleiner Standfläche, kippt beim Gebrauch durch ein aktives Kleinkind mehr oder minder häufig um und verursacht die entsprechende Schweinerei. Das Modell links unten (I a) ist rein fiktiv, denn ein zwecks Verbesserung der Standsicherheit teilweise mit Blei ausgegossenes Töpfchen hat es wohl niemals gegeben - aber so oder ähnlich sehen die typischen faulen Kompromisse in der Technik aus. Wenn ein Objekt nicht in der an sich erforderlichen Weise verändert, sondern 105 3.3 Ein gut überlegter Start schlägt jede „geniale“ Spontanidee <?page no="106"?> nur „ein bisschen“ verbessert werden soll, nimmt man oft entscheidende Nachteile in Kauf (hier: geringfügige Verbesserung der Standsicherheit, dafür erhebliche Beeinträchtigung des „Arbeitsvolumens“). Mit Beginn des Kunststoffzeitalters wurden dann Töpfchen mit glattem, auf dem Teppich rutschendem Boden hergestellt, die zwar in Benutzung kaum umkippen konnten, aber zu intensiven Rutschübungen animierten. Auch war diese Konstruktion zunächst (1970) nicht eben sitzfreundlich, und damit nur für die eher seltenere Spezies spitzärschiger Kleinkinder geeignet. 89 serung der Standsicherheit teilweise mit Blei ausgegossenes Töpfchen hat es wohl niemals gegeben - aber so oder ähnlich sehen die typischen faulen Kompromisse in der Technik aus. Wenn ein Objekt nicht in der an sich erforderlichen Weise verändert, sondern nur „ein bisschen“ verbessert werden soll, nimmt man oft entscheidende Nachteile in Kauf (hier: geringfügige Verbesserung der Standsicherheit, dafür erhebliche Beeinträchtigung des „Arbeitsvolumens“). Mit Beginn des Kunststoffzeitalters wurden dann Töpfchen mit glattem, auf dem Teppich rutschendem Boden hergestellt, die zwar in Benutzung kaum umkippen konnten, aber zu intensiven Rutschübungen animierten. Auch war diese Konstruktion zunächst (1970) nicht eben sitzfreundlich, und damit nur für die eher seltenere Spezies spitzärschiger Kleinkinder geeignet. Technische Entwicklung des „Töpfchens“ Oben Mitte: Vorteilhaftes aktuelles Modell, Rutschen auf dem Teppich nicht mehr möglich. Rechts oben: Günstiges, stabiles Sitzen; Rutschen jedoch noch immer möglich. Mitte links: In mehr als einer Hinsicht missglückte Version. I a: Fiktives Modell, hier nur aus methodischen Gründen abgebildet. Boden teilweise mit Blei ausgegossen. Unten (I): Ausgangsmodell um 1900 Abb. 8 Technische Entwicklung des „Töpfchens“ 106 3 Methoden und Praxisempfehlungen <?page no="107"?> Dieser Mangel wurde um 1975 behoben. Die verdrießlichen Rutsch-Hap‐ penings wurden allerdings erst mit dem völligen Weglassen des äußeren Bodens (oben) unterbunden. Wir verfügen nun über ein brauchbares, in jeder Hinsicht taugliches Objekt: Das Töpfchen steht auf einer umlaufenden Kante und kann nicht mehr wegrutschen. 3.3.4 Schon ein wenig Theorie hilft weiter Die vorangegangenen Abschnitte erwecken vielleicht den Eindruck, der Kreative werde bereits mit einer umfangreichen, mühsamen und hochge‐ stochenen Systemanalyse blockiert, ehe er überhaupt - was die neuen Ideen betrifft - richtig loslegen kann. Verständlicherweise wollen wir möglichst schnell zum Ziel kommen. Fragen wir uns deshalb, welche systemanalyti‐ schen Schritte wir unbedingt benötigen (Abb. 9). 90 Dieser Mangel wurde um 1975 behoben. Die verdrießlichen Rutsch- Happenings wurden allerdings erst mit dem völligen Weglassen des äußeren Bodens (oben) unterbunden. Wir verfügen nun über ein brauchbares, in jeder Hinsicht taugliches Objekt: Das Töpfchen steht auf einer umlaufenden Kante und kann nicht mehr wegrutschen. 3.3.4 Schon ein wenig Theorie hilft weiter Die vorangegangenen Abschnitte erwecken vielleicht den Eindruck, der Kreative werde bereits mit einer umfangreichen, mühsamen und hochgestochenen Systemanalyse blockiert, ehe er überhaupt - was die neuen Ideen betrifft - richtig loslegen kann. Verständlicherweise wollen wir möglichst schnell zum Ziel kommen. Fragen wir uns deshalb, welche systemanalytischen Schritte wir unbedingt benötigen (Abb. 9). Aufgabe in der ursprünglichen Formulierung ⇓ Kritische Systemanalyse ⇓ Schädliche und nützliche Effekte ⇓ Physikalischer Kern der zu überwindenden Schwierigkeiten ⇓ Sich daraus ergebende eigentliche Aufgabe ⇓ Bisherige Lösungsversuche ⇓ Angestrebtes Ideales Endresultat ⇓ Zu überwindender Widerspruch ⇓ Wichtigste Lösungsstrategien (siehe dazu Kapitel 3.4) Abb. 9 Methodisches Minimum für die systemanalytischen Schritte Wir beginnen mit der Aufgabe in der ursprünglichen Formulierung. In der Regel kann diese Formulierung nicht beibehalten werden; sie ist meist überbestimmt und damit „vergiftet“. Darunter ist zu verstehen, dass die Aufgabe vom Chef oder vom Auftraggeber übermäßig stringent formu- Abb. 9 Methodisches Minimum für die systemanalytischen Schritte Wir beginnen mit der Aufgabe in der ursprünglichen Formulierung. In der Regel kann diese Formulierung nicht beibehalten werden; sie ist meist überbestimmt und damit „vergiftet“. Darunter ist zu verstehen, dass die Aufgabe vom Chef oder vom Auftraggeber übermäßig stringent formuliert worden ist („Verbessern Sie diese Maschine“). Damit wird dem Bearbeiter 107 3.3 Ein gut überlegter Start schlägt jede „geniale“ Spontanidee <?page no="108"?> die Möglichkeit genommen, sich funktional mit dem zu lösenden Problem auseinanderzusetzen. Genau dies ist aber erforderlich, denn möglicherweise ist diese Maschine nicht mehr zu verbessern; eine ganz andere würde die gewünschte Funktion weit besser erfüllen. Notwendig ist deshalb eine sehr kritische Systemanalyse. Sie verfolgt den Zweck, Stärken und Schwächen des vorhandenen - meist mangelhaften - Systems einander gegenüberzustellen. In physikalischer Ausdrucksweise sind das dann die positiven (nützlichen) und die negativen (schädlichen) Effekte. Zur Ermittlung der einander behindernden Parameter ist z. B. eine Morphologische Tabelle bestens geeignet. Sie liefert nicht nur oft verblüffend positive Verknüp‐ fungen, sondern zeigt auch die einander störenden Kombinationen an. Besonders wichtig ist, bis zum physikalischen Kern des negativen Effekts bzw. der negativen Effekte vorzudringen. Anspruchsvolle technische Aufga‐ ben lassen sich nicht lösen, wenn nur an der Oberfläche herumgekratzt wird, ohne das eigentliche Problem zu verstehen. Wenn wir beispielsweise über Mauerwerkstrockenlegung reden, müssen wir erst einmal zu der Erkenntnis gelangen, dass es sich bei dem schädlichen Effekt im Kern um Kapillarität handelt. Die physikalischen Eigenschaften von Kapillaren geben uns dann regelrecht vor, dass nur ganz wenige Lösungen überhaupt infrage kommen. Wir erkennen sogar fast unmittelbar, welche das sein könnten - jedenfalls, was das Prinzipielle betrifft. Wer hingegen die Sache oberflächlich angeht, wird noch lange auf seinen völlig sinnlosen Vorschlägen beharren (z. B. „Einen Heizlüfter gegen die Wand richten und Tag und Nacht laufen lassen“). Wenn man als Moderator dann einwirft, dass auf diese Weise die Wand nicht trocken, sondern immer feuchter wird, so stößt man bei hartnäckigen Vertretern dieser Nicht-Denkrichtung auf pures Unverständnis. Nunmehr können wir in Korrektur der ursprünglichen Aufgabe die eigentliche Aufgabe formulieren. Sie betrifft im Allgemeinen die Beseitigung des schädlichen Effekts mit möglichst einfachen Mitteln, am besten „von selbst“. Meist besteht dann sprachlich und sachlich kein Bezug mehr zur ursprünglich - fehlerhaft - formulierten Aufgabe (s. o.). Erst jetzt, also relativ spät, befassen wir uns mit den bisher bekannten Lösungsversuchen. Gingen wir wie üblich vor und stellten die bekannten Lösungsversuche ganz an den Anfang, so blockierte dies unser unabhängiges Denken. Nunmehr befassen wir uns mit konkreten Überlegungen, was an den bekannten Lösungsversuchen brauchbar bzw. weniger brauchbar sein könnte. Haben wir aber zuvor das System noch gar nicht prinzipiell durchdacht, so sind wir nicht in der Lage, die bisherigen Lösungsversuche zu beurteilen. 108 3 Methoden und Praxisempfehlungen <?page no="109"?> Entscheidend ist, dass wir den zugrunde liegenden Wirkmechanismus physi‐ kalisch verstehen. Nicht selten existieren bereits sehr viele Lösungsvorschläge. Dann ertrinken wir in der Fülle der Fakten, ehe wir eigene Gedanken grund‐ sätzlicher Art zum Problem entwickeln konnten. Selbstverständlich ist bei jeder Themenbearbeitung eine gründliche Recherche erforderlich, wir wollen ja schließlich nicht das warme Wasser noch einmal erfinden. Nur kommt es eben aus den genannten Gründen sehr auf die Arbeitsstufe an, in der bisherige Lösungsversuche Berücksichtigung finden sollten. Nun formulieren wir das Ideale Endresultat (IER). Gewöhnlich ist unser Ziel, dass das gewünschte künftige System ohne die bisherigen Störeinf‐ lüsse (negativen Effekte) arbeiten soll, wobei die positiven Effekte erhalten bleiben oder gar verstärkt werden müssen. Die Formulierung sollte sich zwar auf das konkrete System beziehen, selbst aber nicht allzu technischkonkret, sondern mehr physikalisch-prinzipiell sein. Vorteilhaft ist, das Wort „nicht“ (bzw. „ohne“ bzw. „frei von“) und/ oder die Formulierung „von selbst“ einzubeziehen. So lautet bei unserem Foto-Beispiel (3.1.2) das Ideale Endresultat: Silberfreie Fotografie. Diese Formulierung lässt erkennen, dass der bisherige Störeinfluss (hier: störend nicht etwa bezüglich der Güte der Fotografie, sondern die Kosten des Systems betreffend) das teure Silber ist. Das Silber ist aber zugleich verantwort‐ lich für den positiven Effekt, tadellose und brillante Bilder zu garantieren. Dem‐ nach sind mehrere Interpretationen des IER möglich: Fotografie mit anderen lichtempfindlichen Substanzen, aber ganz ohne Silberverbindungen; Fotografie, bei der zum Schluss kein Silber mehr im System ist; Fotografie, die nichts mehr mit den bisherigen fotografischen Systemen zu tun hat. Wir sehen, dass die in unserem Falle technisch-konkrete Formulierung des IER bei physikalischer Interpretation mehrere - zunächst gleichwertige - Richtungen offenlässt. Wir sehen ferner, dass nur ein exakt definiertes Ideales Endresultat die vorliegenden Widersprüche zu bestimmen gestattet. Diese Widersprüche (TÖW, TTW, TPW) haben wir, bezogen auf das Sil‐ berbeispiel, unter 3.1.2 bereits kennen gelernt. In der Praxis lässt man heute den (fast selbstverständlichen) Technisch-Ökonomischen Widerspruch oft weg. Zudem werden der Technisch-Technologische sowie der Technisch- Physikalische Widerspruch, und zwar unter der selbsterklärenden Bezeich‐ nung „Konflikt“, meist zusammengefasst. Da wir bei unserem Beispiel von der zwar materialintensiven, technisch aber sehr gut funktionierenden Silberhalogenidfotografie ausgehen, lautet der auf dem Wege zum IER zu überwindende Konflikt ganz schlicht: 109 3.3 Ein gut überlegter Start schlägt jede „geniale“ Spontanidee <?page no="110"?> „Silber muss (eigentlich) da sein, Silber darf aber nicht (mehr) da sein“. Wie das zu schaffen ist bzw. inzwischen geschafft wurde, haben wir im Abschnitt 3.1.2 bereits kennen gelernt. Während wir diese unverzichtbaren systemanalytischen Schritte gehen, fällt uns auf, dass sich - gewissermaßen „unterwegs“ - prinzipielle Lösungs‐ ansätze geradezu aufdrängen. Genau dies ist ein weiterer positiver Aspekt der Systemanalyse. Die richtig gestellten Fragen führen fast automatisch zu den richtigen Antworten - was hier heißt: zwar wenigen, dafür aber hochwertigen Antworten. Falls in der erläuterten Weise systemanalytisch perfekt gearbeitet worden ist, haben die nun folgenden - das neue System schaffenden - Schritte fast Routinecharakter. Dennoch sollten wir diese Lösungsstrategien (Kapitel 3.4) nicht unterschätzen, denn die während der Systemanalyse nebenbei anfallenden Ideen haben ja fast ausschließlich den Status von Prinziplösungen, von vagen Rahmenempfehlungen. Sie bedürfen meist noch der Präzisierung und der technischen Ausgestaltung, und genau dies leisten die Lösungsstrategien (3.4). 3.3.5 Die richtigen Fragen stellen! Ergänzend zum vorangegangenen Abschnitt wollen wir uns nunmehr eine Reihe von systemanalytischen Fragen ansehen, die nach meiner Erfahrung routinemäßig gestellt werden sollten. Für ein konkretes Problem mögen nicht immer alle Fragen zwingend erforderlich sein bzw. unbedingt zutref‐ fen; welche das jeweils sind, merkt der Bearbeiter von Fall zu Fall ohne besondere Anleitung selbst. Im Regelfalle ist es jedenfalls sinnvoll, zunächst einmal alle Fragen zu stellen. Ich betone immer wieder, dass es notwendig ist, zum physikalischen Kern des zu lösenden Problems vorzudringen. Das ist einerseits wörtlich zu nehmen (z. B. im Maschinen- und Apparatebau und für die Konstruktionslehre), andererseits sinngemäß bzw. symbolisch gemeint. Letztlich ist ja alles Physik, mag es sich im konkreten Falle auch beispielsweise um Biologie oder Chemie handeln. So verwundert es denn auch nicht, wenn bereits Bunsen formulierte: „Ein Chemiker, der kein Physiker ist, ist gar nichts“, und ein zum Spott neigender Physiker sogar feststellte, die Chemie sei ja eigentlich nur der unreinliche Teil der Physik. Nun zu den Fragen: Wie lautet die zu lösende Aufgabe? Welche Schwierigkeiten existieren im gegenwärtigen System? 110 3 Methoden und Praxisempfehlungen <?page no="111"?> Welche Parameter bestimmen die gewünschte Funktion des Systems? Welche systemtypischen Parameter behindern einander? Welche Teile des gegenwärtigen Systems sind Kernelemente der gewünsch‐ ten Funktion und müssen unbedingt erhalten bleiben? Welche Teile des gegenwärtigen Systems arbeiten mangelhaft und müssen deshalb verändert, bzw. ausgetauscht, bzw. eliminiert werden? Was ist die physikalische Ursache für den negativen (störenden) Effekt? Wie lautet nunmehr, nachdem wir das System physikalisch verstanden haben, die eigentliche Aufgabe? Welche bisher bereits durchgeführten Versuche, das Problem zu lösen, sind uns bekannt? Was sagt die Fachliteratur dazu? Wie sind diese Lösungsversuche unter prinzipiell-physikalischen Gesichts‐ punkten zu bewerten? Greifen sie am physikalisch definierten Kernpunkt des negativen Effekts an, oder betreffen sie nur die bereits oberflächlich zu beobachtenden (und damit oft sekundären) Problembereiche? Wie lautet das abstrakt-physikalisch formulierte Ideale Endresultat? Wie lautet der Technisch-Technologische, und wie der Technisch-Physika‐ lische Widerspruch? Falls die Abgrenzung zu schwierig ist: Wie lautet der technisch-physikali‐ sche Konflikt, der auf dem Wege zum IER zu überwinden ist? Es sei noch einmal wiederholt, dass eine sorgfältige Systemanalyse der beschriebenen Art (3.3.4 und 3.3.5) nicht selten bereits „unterwegs“ zu hochwertigen Lösungsansätzen führt. Ich empfehle auch deshalb, dass mehr als 50 % des Gesamtaufwandes, gerechnet vom Start bis zur für die Bearbeitung ausgewählten Lösungsidee (siehe dazu das folgende Kapitel 3.4), auf die Systemanalyse verwendet werden sollten. In der Praxis werden viele Aufgaben ganz einfach deshalb falsch formuliert, weil sich niemand die Zeit genommen hat, die oben aufgelisteten prinzipiellen Fragen zu stellen. Gilde bringt dazu die beiden folgenden Beispiele: „In einer westdeutschen Seglerzeitung fand ich eine Reklameanzeige über rutschsi‐ chere Teller für Segeljachten. Ein Prüfteam hatte sich sogar darangemacht, den Neigungswinkel zu messen, bei dem die Teller sich selbständig machen (etwa 30 Grad). Soweit ist alles ganz schön. Nur fließt die Suppe auf einem schaukelnden oder schiefliegenden Schiff schon bei viel geringerem Neigungswinkel über den Tellerrand. Die Rutschfestigkeit ist also gar nicht das Problem“. 111 3.3 Ein gut überlegter Start schlägt jede „geniale“ Spontanidee <?page no="112"?> „Ein Kombinat stellte Verbindungsstücke für Bohrrohre her. Diese Verbindungsstücke wurden an die Bohrrohre angeschweißt. Gesucht wurde ein geeignetes Schweißver‐ fahren, weil das bisher benutzte die Verbindungsstücke nicht genau zentrisch an die Rohre anschweißt. Erst nachdem viel Zeit und Geld verschwendet war, kam man dahinter, dass die Fragestellung völlig falsch war. Nicht das Schweißverfahren war das Problem, sondern die Zentrierung durch geeignete Halterungen und Füh‐ rungen. Die nächste Erkenntnis war, das Werkstück und die Führung aufeinander abzustimmen. Dabei ergab sich folgender Gedankengang: Die Abweichungen des Verbindungsstückes von der Rohrachse sind bei gleichem Winkel um so größer, je länger das Verbindungsstück ist. Daher muß das Stück verkürzt werden. Technisch war es möglich, auf die halbe Länge zu verzichten. Dadurch entfielen wieder größere Änderungen an den Halterungen und Führungen“ (Gilde 1985, S. 188). In beiden Fällen wurden zunächst keine physikalisch orientierten Fragen gestellt, sondern es wurden Aufgaben auf Basis ungeprüfter Annahmen formuliert, die ganz einfach den Kern des Problems nicht trafen, und wegen des geschilderten methodischen Defizits gar nicht treffen konnten (Rindfleisch nannte dies „vergiftete“ Aufgabenstellungen). Im Falle der Halterung ging die Sache, nachdem man die Systemanalyse - wenn auch verspätet - durchgeführt hatte, noch gut aus: „Ursprünglich war ein neues Schweißverfahren gesucht. Daraus wurde die Suche nach einer neuen Halterung, und daraus wurde eine Änderung in der Konstruktion des Schweißteiles. Die Konstruktionsänderung erforderte einige Stunden Zeichenar‐ beit. Gleichzeitig wurden 50 Prozent des Materials eingespart und die Bearbeitungs‐ zeit durch Spanabhebung um etwa 30 Prozent gesenkt“ (Gilde 1985, S. 189). Eine in der Chemie typische Frage ist: „Wie kann ich einen gegebenen Wertstoff vollständig nutzen“? Ich interpretierte die Frage bezüglich des im Phosphor‐ schlamm enthaltenen Phosphors so, dass ich mir die vollständige Umwand‐ lung des Elementarphosphors in Phosphat zum Ziel setzte. Das Ziel wurde erreicht, jedoch erwies sich die pyrolytische Umwandlung des beim alkalischen Aufschluss intermediär entstehenden Phosphits zu Phosphat als schwierig, kommerziell kaum überzeugend und nicht umweltgerecht (Zobel 1972). Sinnvoller wäre gewesen, wenn ich mir die Frage gestellt hätte: „Wie kann ich den im Phosphorschlamm enthaltenen Elementarphosphor in ein wirtschaftlich interessantes Produkt bei ökologisch perfekter Arbeitsweise umwandeln“? Als ich später nach diesem Muster vorging, habe ich nicht mehr die vollständige Umwandlung in das nur mäßig wertvolle Phosphat, sondern die nur teilweise 112 3 Methoden und Praxisempfehlungen <?page no="113"?> Umwandlung in das sehr lukrative Natriumhypophosphit unter Tolerierung eines harmlosen, deponiefähigen Nebenproduktes erfolgreich betrieben (Zobel 1990). 3.4 Ausgewählte einfache Lösungsstrategien Für die Lösung anspruchsvoller technischer Aufgaben bevorzuge ich die im Abschnitt 3.1.2 beschriebene „Theorie zum Lösen Erfinderischer Aufgaben“ (TRIZ) sowie den dazu gehörigen „Algorithmus zum Lösen Erfinderischer Aufgaben“ (ARIZ). In der Praxis zeigt sich jedoch, dass diese Methode von vielen Interessenten als zu schwierig, zu umfangreich und zu aufwändig betrachtet wird. Dies führt oft zu genereller Ablehnung. Bereits im vorangegangenen Kapitel 3.3 habe ich deshalb die systemana‐ lytischen Stufen des ARIZ für die Praxisbedürfnisse gekürzt, angepasst und in einer möglichst einfachen Sprache dargestellt. Wir wollen nun in den folgenden Abschnitten, welche die systemschaff‐ enden Schritte betreffen, analog verfahren. Das bedeutet zwangsläufig eine Konzentration auf die wichtigsten Lösungsstrategien, zum anderen den Verzicht auf strenge Systematik. Dennoch habe ich die behandelten Strategien so angeordnet, dass sich bereits aus der Reihenfolge eine gewisse Ordnung im Sinne einer Empfehlung zum stufenweisen Arbeiten ergibt. Unabhängig davon ist jede einzelne Strategie für sich einsetzbar. Auch wenn sich eine hochwertige Lösung bereits früh abzeichnet, ist es in der Praxis jedoch stets vorteilhaft - sei es auch nur zur Kontrolle oder zur Bestätigung - mehrere Strategien einzusetzen. 3.4.1 Standardfälle - häufiger als vermutet Bei der Bearbeitung erfinderischer Aufgaben wird meist angenommen, dass die angestrebten kreativen Lösungen ihrer Natur nach neu sind und auch völlig neu sein müssen. Dies ist jedoch nur recht selten der Fall; wir haben uns bereits im Abschnitt 3.1.2 damit befasst. Weit häufiger existiert für die anstehende Aufgabe bereits, zumindest sinngemäß, eine Lösung, nur eben in einem ganz anderen Fachgebiet. Diese Feststellung ist Ausgangs- und Kernpunkt der von Altschuller geschaffenen TRIZ-Methodik. Diese besteht aber nicht nur, wie oberflächliche Nutzer glauben, aus der Tabelle der Prinzipien zum Lösen Technischer Widersprüche, sondern aus einer ganzen 113 3.4 Ausgewählte einfache Lösungsstrategien <?page no="114"?> Reihe hochwertiger Lösungsinstrumente. So fand Altschuller u. a. heraus, dass es regelrechte Standardaufgaben gibt, die sich präzise beschreiben und mit bewährten Vorgehensweisen fast schematisch lösen lassen. Sehen wir uns zunächst die nach dem „wenn-dann“-Schema formulierten zehn „klassischen“ Standardlösungen an (Altschuller 1984, S. 128 ff.). Ich habe mich an die Originalquelle gehalten, aber die durch eine nicht immer geglückte Übersetzung zu kompliziert geratene Sprache vereinfacht. Auch wurden die Formulierungen gekürzt, und ich habe in einigen Fällen andere - methodisch überzeugendere - Beispiele verwendet: I. Wenn ein Objekt sich nur schwierig nachweisen lässt, oder mit der Um‐ gebung nicht in Wechselwirkung treten kann, obzwar dies erforderlich wäre, so füge man einen Stoff hinzu, der ein leicht nachweisbares Feld schafft oder mit der Umgebung in Wechselwirkung zu treten vermag. Beispiele: Zumischen von Fluoreszenzstoffen zu Kältemitteln, um Leck‐ stellen im Kältemittelkreislauf ermitteln zu können. Gas wird mit ge‐ ruchsintensiven Substanzen dotiert, um unerwünschten Gasaustritt zu signalisieren. Zumischen von „Dochtsubstanzen” zu schwer trocknenden Gütern, um die Ableitung des Wasserdampfes zu intensivieren. II. Sollen Abweichungen zwischen zwei Objekten (Werkstück, Kopie bzw. Muster, Normal) ermittelt werden, so sind deren gegensätzlich gefärbte Abbilder optisch miteinander zu vereinigen. Die Differenz tritt dann deutlich hervor („Optische Koinzidenz“). Beispiel: Eine Platte mit Aussparungen/ Bohrungen wird kontrolliert, indem man die gelbe Darstellung der Platte mit der blauen Darstellung des Eichmusters zur Deckung bringt. Erscheint der Schirm gelb, so fehlt auf der zu prüfenden Platte eine Öffnung. Erscheint blaues Licht, so ist auf der Platte zuviel gebohrt worden. III. Wenn bei Berührung zweier zueinander bewegter Stoffe eine schädli‐ che Wirkung auftritt, so ist ein dritter Stoff einzuführen, der einem der beiden Stoffe ähnelt oder eine Modifikation eines der Stoffe ist. 114 3 Methoden und Praxisempfehlungen <?page no="115"?> Beispiele: Stahlkugeln, die innerhalb eines Rohrkrümmers von einem starken äußeren Magneten in Position gehalten werden, verhindern den Verschleiß des Krümmers beim pneumatischen Transport abrasiver Güter, indem die leicht ersetzbaren Kugeln als Verschleißschicht wirken. Die statische Aufladung von Lichtpauspapier am Glaszylinder des Ab‐ lichtgerätes wird verhindert, wenn Transparentpapier dazwischen gelegt wird. Grubenfeuchte Kohle bzw. frische Elektrodenmasse klebt nicht mehr auf dem Förderband, wenn dieses kontinuierlich mit getrocknetem Kohlenstaub bzw. Petrolkoks-Feinstaub gepudert wird (Abb. 10): Abb. 10 Verfahren und Vorrichtung zur Förderung von klebriger Kohleelek‐ trodenmasse (Breuer, Pat. 1985/ 1987) 1 Petrolkoks-Feinstaubbunker 2 Elektrodenmasse 3 Zellenradschleuse 4 Gurtbandförderer IV. Soll ein Objekt bezüglich seiner Funktion, Form, Oberfläche, Viskosi‐ tät, Porosität leicht steuerbar verändert werden, so ist ein ferromagne‐ tischer Stoff hinzuzufügen und ein Magnetfeld anzulegen. 115 3.4 Ausgewählte einfache Lösungsstrategien <?page no="116"?> Beispiele: Magnetfeldrührer. Veränderung der Viskosität einer ferro‐ magnetischen Flüssigkeit im Magnetfeld. Rohrpfropfen, bestehend aus einer ferromagnetischen Flüssigkeit, die im Magnetfeld aushärtet. Zugabe von Eisenfeilspänen während eines Fällungsbzw. Flockungs‐ vorganges, gefolgt von der Abtrennung der - an sich ja nicht-magne‐ tischen - Fällungsprodukte mittels Magneten. V. Sollen technische Kennwerte eines Systems verbessert werden, und stößt dies auf grundsätzliche Hindernisse, so ist das System in ein Ober‐ system einzubeziehen. Weiterentwickelt wird das System nunmehr nur noch innerhalb des Obersystems. Beispiele: Die Gravitation scheint zunächst einmal generell das Schweben von Stoffen, welche schwerer als Luft sind, zu verbieten. Durch Anwendung der aerodynamischen Effekte im Obersystem „Flugzeug” wird gleitendes Schweben jedoch ermöglicht. Der Über‐ gang Düsenflugzeug Þ Raumgleiter erfolgt dann innerhalb des Ober‐ systems space shuttle. VI. Ist es schwierig, eine Operation an dünnen, spröden, feinen, weichen Objekten durchzuführen, so füge man für die Dauer der Operation einen Stoff hinzu, der das Objekt zwischenzeitlich fest/ hart macht und der sich anschließend durch Auflösen, Wegätzen, Verdampfen etc. bequem wieder entfernen lässt. Beispiele: Metallrohre, die beim Biegen nicht zusammenfallen sollen, werden für die Dauer des Biegevorganges mit Sand gefüllt (ein uralter Klempner-Trick! ). Dünnen Stoffen wird Appretur hinzugefügt, damit man sie bedrucken kann. Dünnwandige Cr-Ni-Röhrchen werden über einen Aluminiumstab gezogen, der anschließend mit Säure oder Lauge weggeätzt wird. 116 3 Methoden und Praxisempfehlungen <?page no="117"?> VII. Wenn zwei einender ausschließende Wirkungen/ Zustände gemeinsam benötigt werden, so sind sie abwechselnd anzuwenden. Dabei muss der wechselweise Übergang von der einen zur anderen Wirkung durch das Objekt selbst erfolgen. Beispiele: Thermodiffusionsintervalltrocknung von Dragees bzw. von frischem Holz: Zwischenzeitlich wird trockene Kaltluft statt Warmluft verwendet, damit der Wasserdampf aus dem - inzwischen relativ warmen - zu trocknenden Gut von innen nach außen gelangen kann. Kommt der Vorgang zum Erliegen, so wird wieder mit Warmluft gearbeitet. Selbsttätiges Aus- und Einschalten von Magnetkupplungen beim Erreichen des Temperatursollwertes. VIII. Soll ein elastisches System (mechanisches Feder-Masse-System, elek‐ trischer Schwingkreis, zu verdichtendes Schüttgut) große Ausschläge zeigen, so ist es mit seiner Resonanzfrequenz zu erregen. Beispiele: Elektromagnetischer Schwingförderer. Die Masse eines sich bewegenden Fadens wird nach seiner Eigenfrequenz bestimmt (früher schnitt man ein Stück ab und bestimmte seine Masse durch Wägung). Unerwünschter technischer Effekt: Eine Brücke kann einstürzen, wenn sie durch eine im Gleichschritt marschierende Kolonne in Resonanzschwingung versetzt wird. IX. Reagieren zwei Stoffe nicht oder zu wenig bzw. zu langsam miteinan‐ der, so sind durch Übergang von der Makroebene zur Mikroebene aktivierte Zonen zu schaffen, in deren Einflussbereich völlig neue Stoff-Feld-Wechselwirkungen auftreten. Beispiele: Katalytische Reaktionen. Extreme Farbaufhellung bei Feinstmahlung, z. B. können an sich tief grüne Chromverbindungen durch Feinstmahlung zu einem fast weißen, nur noch schwach grün‐ lichen Pulver verarbeitet werden. Mechanochemische Aktivierung an sich völlig unlöslicher Phosphaterze, welche nach einer solchen 117 3.4 Ausgewählte einfache Lösungsstrategien <?page no="118"?> Aktivierung direkt als Düngemittel verwendet werden können. As‐ best-Makroteilchen sind relativ harmlos, Asbest-Feinststaub führt hingegen zum Lungencarcinom, desgleichen Dieselruß, der besonders feinteilig und damit besonders oberflächenaktiv und lungengängig ist. Möglicherweise ist auch der Übergang zur Nano-Technik, insbeson‐ dere der Umgang mit Teilchen im Nano-Bereich, aus diesen Gründen nicht unbedenklich, wie in einer entsprechenden Arbeit diskutiert. Zugleich werden jedoch neue Therapiechancen beim Einsatz solcher Teilchen gesehen (Krug 2003). X. Wenn es notwendig ist, mit Zusätzen zu arbeiten, dies aber nach den Bedingungen der Aufgabe nicht gestattet ist, sind folgende Umge‐ hungswege möglich: Ersetzen eines Stoffes durch ein Feld; „äußerer” statt „innerer” Zusatz; Zusatz in sehr kleinen Dosen; Zusatz nur für sehr kurze Zeit; Zusatz in Form einer modifizierten Komponente des Systems; Ersatz des Objektes durch sein Modell, dem Zusätze hinzugefügt werden dürfen; Zusätze in Form einer Verbindung, aus der sie dann freigesetzt werden („Trojanisches Pferd”); Zusatz, der im System nicht stört und seine Wirkung erst „vor Ort” entfaltet. Beispiele: Provisorisches Abdichten von defekten Kühlsystemen durch so genanntes „Schlämmen“ mit Sägespänen. Abdichten defekter Heizkreisläufe durch einen im zirkulierenden Wasser gelösten Stoff, der an der Defektstelle zusammen mit dem Wasser austritt, polyme‐ risiert und so die Defektstelle verschließt. Magnetisches Orientieren von Schleif-Diamantkörnern mittels aufgebrachter Metallschicht, die beim Schleifen von selbst verschwindet. Wir sehen, dass diese Standardlösungen tatsächlich konsequent nach dem „wenn-dann“-Schema aufgebaut sind. Es wird dem Nutzer deshalb sehr leicht gemacht. Er braucht nur noch zu prüfen, ob er es jeweils direkt - oder sinngemäß - mit einer der aufgeführten Situationen zu tun hat, und ob vielleicht sogar eines der Beispiele zutrifft. Es wird allerdings kaum jemals wörtlich zutreffen, deshalb ist auch hier die Fähigkeit zum sinngemäßen Übersetzen (Transformieren) gefragt. 118 3 Methoden und Praxisempfehlungen <?page no="119"?> Manchmal aber hat man richtig Glück. So beschreibt der Standard VII die „intermittierende“ Arbeitsweise. Eines der Beispiele betrifft die abwech‐ selnde Heißluft-Kaltluft-Fahrweise beim Trocknen anscheinend sehr ver‐ schiedenartiger Güter, nämlich Bauholz einerseits und Dragees andererseits. Hier liegt der Schluss nahe, dass diese Verfahrensweise auch zum Trocknen weiterer, bisher dafür noch niemals in Betracht gezogener Güter funktionie‐ ren müsste. Falls sich das bestätigen sollte, so dürfte der Prüfer im Patentamt einem Schutzbegehren wohl kaum im Wege stehen. Die Erteilungspraxis geht in solchen Fällen davon aus, dass die Analogie, sofern sie aus einem weit entfernten Sachgebiet stammt, bzw. - in unserem Beispiel - einen völlig anderen Stoff betrifft, nicht als Hindernis für die Erteilung angesehen wird. Das System der Standards wurde inzwischen, mit dem Ausbau der Stoff- Feld-Betrachtungsweise, wesentlich erweitert. Bei der (ebenfalls von Alt‐ schuller eingeführten) Stoff-Feld-Betrachtungsweise stellt man sich jedes beliebige System als aus Stoffen und Feldern aufgebaut vor, was im physika‐ lischen Sinne ja auch zutreffend ist. Der Stoffbegriff ist klar. Alle materiellen Substanzen bzw. Objekte, ge‐ formt oder nicht, sind Stoffe: z. B. Glas, eine daraus geschliffene Linse; Eisen, ein Eisennagel, ein eiserner Tank. Der Feldbegriff wird großzügig ausgelegt: Temperaturfelder, elektrische Felder, Magnetfelder, Gravitationsfelder etc. Die Stoffe sind generell über die Felder miteinander verbunden. Die an einem mangelhaft arbeitenden System zu beobachtenden Stoff-Feld-Wechselbezie‐ hungen müssen nicht unverändert beibehalten werden. Sie können vielmehr mit Hilfe von immerhin 76 (! ) Standardlösungen der Stoff-Feld-Analyse gezielt verändert werden. Auch diese recht anspruchsvollen Standards sind nach dem „wenn-dann“-Schema aufgebaut. Interessenten verweise ich auf die ausführliche Literatur zum Thema (Herb, Herb u. Kohnhauser 2000; Zobel 2006 b). Die Stoff-Feld-Betrachtungsweise ist inzwischen fast eine Wissenschaft für sich geworden; sie würde den Umfang unseres Buches sprengen. Deshalb wollen wir nur ein Beispiel bringen. Zu den Grundregeln dieser Arbeitsweise gehört die Standardempfehlung „Ersetze Stoffe durch Felder“, die zudem einem generellen technischen Trend folgt: Während üblicherweise Schleifbzw. Poliervorgänge mittels starrer oder flexibler Elemente ausgeführt werden, welche komplett stofflicher Natur sind, wird bei einer modernen Polieranordnung mit ferromagnetischem Polierpulver gearbeitet, das mithilfe eines Magnetfeldes in Position gebracht 119 3.4 Ausgewählte einfache Lösungsstrategien <?page no="120"?> wird (Abb. 11). Damit ist ein wesentlicher Teil der Vorrichtung nicht mehr stofflicher Art, sondern wurde durch ein Feld ersetzt. Der Magnet ist als mechanisch schwingende Einheit ausgeführt; die Feldlinien sowie die auf dem vibrierend bewegten Magnetfeld „tanzenden“ Polierkörner können sich der Kontur des zu schleifenden Werkstückes ideal anpassen. Das Beispiel entspricht einer heute immer deutlicher werdenden technischen Tendenz und erfüllt im Wortsinne die methodische Anweisung: „Ersetze Stoffe durch Felder“. Die drei wichtigsten heuristischen Ansätze Altschullers lauten: ■ Füge einen Stoff und/ oder ein Feld hinzu, ■ Kann kein Element des Systems verändert werden, so ist die Umgebung zu verändern, ■ Ist ein Feld gegeben und wird ein anderes Feld gewünscht, so lässt sich dieses über eine Verknüpfungsmatrix ermitteln. Abb. 11 Poliereinrichtung für schwer zugängliche Innenkonturen (Ideen für Ihren Erfolg, Bd. 2, 1996, S. 168/ 169) 120 3 Methoden und Praxisempfehlungen <?page no="121"?> 3.4.2 Was einander behindert, wird voneinander getrennt Technische Konflikte sind dadurch gekennzeichnet, dass bestimmte Zu‐ stände und die ihnen entgegengesetzten Zustände gleichermaßen gege‐ ben sein müssen. Dies kann Objekte, Funktionen und Eigenschaften betreffen. Im gewöhnlichen Leben neigen wir dazu, derartige Widersprü‐ che für unlösbar zu erklären, und uns folglich nicht weiter mit ihnen zu beschäftigen. Der auf erfinderischem Niveau denkende Kreative aller‐ dings weiß, dass das Auftauchen eines solchen Widerspruchs signalisiert: „Achtung! Hochwertige Aufgabe! “. Befassen wir uns deshalb mit den widerspruchsorientierten Aspekten von Objekten, Funktionen und Eigenschaften und den sich daraus ableitenden so genannten Separationsprinzipien. Diese sind dadurch charakterisiert, dass an sich für unvereinbar gehaltene Parameter eines Systems mit ihrer Hilfe in Einklang gebracht werden können (heiß und kalt, lang und kurz, offen und geschlossen, feucht und trocken etc.). So ist das Fahrwerk eines Flugzeugs beim Starten und Landen absolut un‐ erlässlich, ansonsten jedoch nur nachteilig. Mikrochips müssen fest verlötet sein, dürfen beim Verlöten aber nicht erhitzt werden. Eine Leiter sollte in Funktion möglichst lang, hingegen für den Transport möglichst kurz sein. Dies sind vergleichsweise einfache Beispiele; die Lösungen sind allgemein bekannt. Hat man es aber mit anderen (oder zumindest vermeintlich anderen) Auf‐ gaben zu tun, so bekommt der Nicht-Kreative arge Schwierigkeiten. Es erscheint ihm völlig unmöglich, sich ein Objekt vorzustellen, das zugleich schwarz und weiß, oder aber heiß und dennoch kalt, anwesend und zugleich abwesend zu sein hat. Mit solchen Fragen hat sich aber das Denken auf kreativem Niveau auseinanderzusetzen. Verlässliche Empfehlungen zum Trennen der einander behindernden - und dennoch gleichermaßen erfor‐ derlichen - Faktoren bieten die in allen modernen methodischen Werken (so Terninko, Zusman u. Zlotin 1998; Zobel 2006 a und b) behandelten Separationsprinzipien: 121 3.4 Ausgewählte einfache Lösungsstrategien <?page no="122"?> I Separation im Raum: Die widersprüchlichen Objekte, Funktionen, Eigenschaften sind räumlich so voneinander zu trennen, dass die gewünschte nützliche Wirkung nur in einem bestimmten räumlichen Teilbereich eintritt, und der Rest des Systems nicht betroffen ist. Beispiel: Bei der chemischen („stromlosen“) Vernicklung muss konventionell in einem auf 92 °C erhitzten wässrigen Bad, welches Nickelsulfat und Natriumhypophosphit enthält, gearbeitet werden. Bei dieser Temperatur läuft der erwünschte Prozess der Abscheidung einer glänzenden Nickelschicht auf dem (z. B. kupfernen) Werkstück ab. Zugleich besteht aber die Gefahr der Selbstzersetzung des Bades unter Ausscheidung grauschwarzer Nickelteilchen. Tritt dieser Fall ein, so ist der Ansatz verdorben, weil sich nicht nur das Bad zersetzt hat, sondern das Werkstück nunmehr nicht - wie gewünscht - mit einer glänzend-glatten, sondern einer rauen, grauschwarzen Nickelschicht bedeckt ist. Deshalb wird die zur Zersetzung neigende Lösung neuerdings nicht mehr erhitzt. Erhitzt wird nur noch das Werkstück. Das ringsum ansonsten kalte Bad kann sich unter diesen Bedingungen nicht mehr zersetzen. Gelöst wird das Problem somit dadurch, dass die gewünscht aktiven Bereiche heiß, und gleichzeitig die gewünscht inaktiven Bereiche des Systems kalt betrieben werden (Abb. 12). Hier behindern einander die Parameter: Abscheidung der Nickelschicht einerseits, Badstabilität andererseits. Das Vernicklungsbad muss heiß sein, damit sich die Nickelschicht auf dem zu vernickelnden Werkstück schnell und in der erforderlichen Qualität abscheiden kann; das Bad darf jedoch nicht heiß sein, weil es sich in diesem Zustand unter Ausscheidung schwar‐ zer Nickelteilchen manchmal zersetzt. Lösung: Induktive Erwärmung des Werkstückes, so dass das (ansonsten kalte) Bad nur im unmittelbaren Nahbereich der zu beschichtenden Oberfläche erhitzt wird (Abb. 12: Ideen für Ihren Erfolg, Bd. 2, 1996, S. 182/ 183). 122 3 Methoden und Praxisempfehlungen <?page no="123"?> Dokumentvorlage • Narr Verlage | A 3.3 111 Abb. 12 Separation im Raum: Das zu vernickelnde Werkstück wird induktiv erhitzt. Die zur Selbstzersetzung neigende Hypophosphit-Nickelsulfat-Lösung bleibt, abgesehen vom unmittelbaren Nahbereich des Werkstücks, kalt (Quelle: s. Text). Im Nachhinein erscheint die Lösung völlig selbstverständlich, und fast jeder fragt sich, warum nicht gleich so verfahren wurde. Die Antwort ist, durchaus nicht nur auf unser Beispiel bezogen, geradezu klassisch: „Ich wusste bereits, dass das Zuspätkommen von Erfindungen fast ein ehernes Gesetz ist“ (Altschuller 1973, S. 48). Im Falle unseres Beispiels sieht das so aus: Die stromlose Vernicklung wurde ab 1950 industriell betrieben. Seither war die geschilderte Problematik der gelegentlichen - nicht reproduzierbaren - Zersetzung der Bäder, und damit die zu Abb. 12 Separation im Raum: Das zu vernickelnde Werkstück wird induktiv erhitzt. Die zur Selbstzersetzung neigende Hypophosphit-Nickelsulfat-Lösung bleibt, abgesehen vom unmittelbaren Nahbereich des Werkstücks, kalt (Quelle: s. Text). Im Nachhinein erscheint die Lösung völlig selbstverständlich, und fast jeder fragt sich, warum nicht gleich so verfahren wurde. Die Antwort ist, durchaus nicht nur auf unser Beispiel bezogen, geradezu klassisch: „Ich wusste bereits, dass das Zuspätkommen von Erfindungen fast ein ehernes Gesetz ist“ (Altschuller 1973, S. 48). Im Falle unseres Beispiels sieht das so aus: Die stromlose Vernicklung wurde ab 1950 industriell betrieben. Seither war die geschilderte Problema‐ tik der gelegentlichen - nicht reproduzierbaren - Zersetzung der Bäder, und damit die zu lösende technische Aufgabe, genau bekannt. Gelöst wurde das Problem aber erst 40 Jahre später (! ). II Separation in der Zeit: Die widersprüchlichen Objekte, Funktionen oder Eigenschaften sind zeitlich voneinander zu trennen, so dass die gewünschte Aktivität nur zu einer 123 3.4 Ausgewählte einfache Lösungsstrategien <?page no="124"?> bestimmten Zeit ausgeführt wird. Die Funktionen des Systems sind zeitlich so zu unterteilen, dass die einander widersprechenden Bedingungen nicht mehr miteinander kollidieren können. Beispiele: In einem modernen Flockungsbecken zur Abwasserreinigung wird der Flockungsvorgang zeitlich gestreckt. Während in einem gewöhnlichen - nicht unterteilten - Flockungsbehälter das Flockungsmittel zugegeben und so lange gerührt wird, bis der Flockungsvorgang beendet ist (diskontinuier‐ licher Prozess, „batch“-Prozess), gelingt hier durch zeitliche und räumliche Unterteilung des Vorganges der kontinuierliche Betrieb der Anlage. Jede Kammer arbeitet in einem dem entsprechenden Umsetzungsgrad angepass‐ ten Optimalbereich, erkennbar an den in Strömungsrichtung immer größer werdenden und demzufolge immer langsamer durchströmten Kammern (Sakai, Pat. 1982). Manche Typen der Überschall-Militärflugzeuge verfügen über Schwenk‐ flügel. Bei Start und Landung sind breite Tragflächen gefragt, bei hohen Geschwindigkeiten schmale Flügel vorteilhafter. III Separation durch Bedingungsbzw. Zustandswechsel: Die Trennung der einander widersprechenden Anforderungen erfolgt hier‐ bei durch Modifikation der Bedingungen, unter denen zeitgleich der ge‐ wünschte Prozess neben einem überflüssigen oder gar schädlicher Prozess abläuft. Das betrachtete System ist zum Zwecke der Elimination der Schwie‐ rigkeiten in einen anderen Zustand (fest, flüssig, gasförmig) zu überführen (gewöhnliche Phasenumwandlungen). Auch bestimmte Zwischenzustände sind manchmal besonders interessant, wie z. B.: weich, elastisch, zähflüssig, thixotrop. Beispiele: Gewöhnliche Torpedos können nicht schneller sein, als es von Wasser umströmte - zudem hydrodynamisch optimierte - Körper sein können. Eine Kavitationsdampfblase ermöglicht jedoch superschnelle Torpedos: Das Torpedo gleitet nun nicht mehr durch das Wasser, sondern es „fliegt” gewissermaßen unter Wasser in einer selbst erzeugten Dampfblase, d. h. faktisch in einem Gas. Pudding erstarrt zunächst; er lässt sich durch Schütteln wieder verflüs‐ sigen („Thixotropie“). Thixotrope Schlämme verhalten sich fast wie feste Substanzen, bis sie durch Einbringen mechanischer Energie so weit verflüs‐ sigt werden, dass sie gepumpt werden können. Der Vorgang ist reversibel: 124 3 Methoden und Praxisempfehlungen <?page no="125"?> Es kann beliebig oft zwischen dem quasi-flüssigen und dem de facto festen Aggregatzustand hin und her gewechselt werden. IV Separation innerhalb eines Objektes und seiner Teile: Untersysteme üben die zum Gesamtsystem in Widerspruch stehende Funk‐ tion aus, ohne die Funktionsanforderungen an das Gesamtsystem zu beein‐ trächtigen. Subsysteme sollten jene für das Gesamtsystem erforderlichen Funktionen ausüben können, welche vom Gesamtsystem ohne Hilfe der Subsysteme nicht ausgeführt werden können. Beispiele: Die Glieder der Fahrradkette sind starr, die Fahrradkette dage‐ gen ist flexibel. Kompliziert geformte Werkstücke lassen sich nur schwie‐ rig in einen Schraubstock einspannen. Lösung: Zwischen die Backen des Schraubstockes werden Bürsten mit harten Borsten eingebracht; so kann sich der Anpressdruck gleichmäßig verteilen. Analog wirken Metallborsten auf der Oberfläche eines Schleifkörpers: Sie vermögen sich unregelmäßig geformten Körpern anzupassen und ermöglichen so die Bearbeitung der entsprechenden Oberflächen. Wir erkennen an dieser Stelle übrigens, dass die logische Weiterentwicklung dieser Anpass-Lösung mit der in Abb. 11 bereits erläuterten Arbeitsweise erzielt werden kann. Aus methodischer Sicht ist ferner zu berücksichtigen, dass erfahrene Kreative über ein ganzes Arsenal von fast standardmäßig einsetzbaren Lösungen verfügen. Auch ist es dem Praktiker ziemlich gleichgültig, wo diese Lösungen bei methodisch strenger Interpretation einzuordnen sind, zumal - wie im Falle vorliegenden Beispiels - verschiedene „Fächer“ für die Einordnung infrage kommen. Beispiele sind überhaupt dadurch gekennzeichnet, dass sie, je nach As‐ pekt, ziemlich willkürlich interpretiert werden können. Auch haben sie die unerwünschte Nebenwirkung, vom physikalisch Prinzipiellen abzulenken, da sie - sonst wären es keine Beispiele - konkrete Fälle behandeln. Ich kannte einen Methodiker, der das Arbeiten mit Beispielen deshalb ablehnte. Nachteiliger Nebeneffekt war jedoch, dass seine Kursteilnehmer stets ein‐ schliefen. Betrachten wir deshalb ein weiteres Beispiel. Ein metallbeschichteter Maßstabsträger aus kohlenstoffverstärktem Plast erscheint, auch wenn das auf den ersten Blick kaum einleuchten mag, als eine methodische Analogie zur Fahrradkette. Das Teilsystem „starres Glied der Kette“ hat völlig andere Eigenschaften als das Gesamtsystem „flexible Kette“. In Analogie dazu erfüllt das aus kohlefaserverstärktem Plast hergestellte eigentliche Messband höchste Anforderungen bezüglich 125 3.4 Ausgewählte einfache Lösungsstrategien <?page no="126"?> Flexibilität, geringer Masse sowie Abriebfestigkeit, wirkt aber optisch nicht ansprechend. Es wird deshalb beidseitig mit einer Klarsichtfolie beschichtet, die schließlich im Vakuum mit Aluminium, Titannitrid oder einer Chrom- Nickel-Legierung bedampft wird. Die Beschichtung ist optisch ansprechend und erfüllt auch sonst höchste Ansprüche. Sie beeinträchtigt nicht die guten mechanischen und physikalischen Eigenschaften des Hauptsystems, d. h. des Plast-Kohlefaser-Grundkörpers, und trägt somit anteilig zur in jeder Hinsicht tadellosen Funktion des Gesamtsystems bei (Abb. 13; nach: Ideen für Ihren Erfolg 1995, S. 218). Abb. 13 Metallbeschichteter Maßstabsträger aus kohlenstoffverstärktem Plast. Das Teilsystem Klarsichtfolie mit Metallisierungsschicht hat völlig andere (und vor allem die Hauptfunktionen nicht störende) Eigenschaften als der aus kohlefaservers‐ tärktem Plast gefertigte Maßstabsträger, das Messband (Quelle: s. Text) Für die praktische Arbeit ist dringend zu empfehlen, die Separationsprinzi‐ pien stets mit in Betracht zu ziehen. Es sind durchgängig geltende, Branchen übergreifend wirksame Lösungsstrategien. Überhaupt sollte man niemals sofort nach Detail-Lösungen suchen, ehe man nicht das prinzipielle Lösungsschema ermittelt hat. Das ist leichter gesagt als getan, denn gerade der Hochkreative neigt in seiner Ideenfülle 126 3 Methoden und Praxisempfehlungen <?page no="127"?> dazu, sofort eine ganze Reihe von möglichen Lösungen vorzuschlagen. Nach meinen Erfahrungen sind die Separationsprinzipien besonders geeignet, die zunächst erforderlichen Rahmenempfehlungen zu liefern. Die Detail- Lösungen sind dann später zu erarbeiten. Wir sollten uns zu einer gewissen methodischen Disziplin erziehen. Haben wir uns erst einmal daran gewöhnt, so ist die im Ergebnis des systematischen Vorgehens sich jeweils abzeichnende Rahmen-Richtlinie stets besser geeignet, später besonders hochwertige Detaillösungen zu liefern, als dies bei spontanem Vorgehen jemals möglich sein kann. Der von Chaoten aller Couleur propagierte „direkte“ Weg ist kein Weg, sondern ein wildes Herumprobieren; wir wollen schließlich nicht wieder der in Abb. 1 dargestellten Vorgehensweise verfallen. 3.4.3 Gewöhnliche und ungewöhnliche Kombinationen Oft höre ich von gewissen Schlaumeiern, Erfinden sei ja eigentlich nur Kombinieren. Das ist richtig und falsch zugleich. Wir sollten streng un‐ terscheiden zwischen primitiven Kombinationen, bei denen verschiedene Funktionen einfach zusammengebracht werden, ohne dass etwas überra‐ schend Neues passiert, und hochwertigen Kombinationen, die mehr sind und mehr leisten als die Summe ihrer Teile. Die erst genannten primitiven Kombinationen fallen schutzrechtlich unter den Begriff der „Aggregation“, d. h. der unschöpferischen Anhäufung von Merkmalen, die unabhängig voneinander existieren und in Kombina‐ tion nichts Überraschendes zu bieten haben. Derartige Aggregationen sind gemäß der geltenden Spruchpraxis nicht schutzfähig, obwohl ein Antrag dieser Art manchmal mit durchrutscht. Dies ist anscheinend immer dann der Fall, wenn der Prüfer von der Fülle der angebotenen Funktionen gleichsam geblendet wird, und deshalb nicht darauf besteht, ungewöhnliche Zusatzeffekte einzufordern. Betrachten wir das klägliche Niveau mancher - bei strenger Ausle‐ gung an sich gar nicht schutzfähigen - Kombinationserfindungen. Wenn beispielsweise Rollschuhe mit einem kleinen Motor ausgerüstet werden, oder man eine Weste mittels Reißverschlusses mit Ärmeln versieht, sind hier zusätzliche Funktionen in stümperhafter Weise einfach aufgepfropft worden. Dies gilt auch für eine ganze Reihe allgemein bekannter Kombi‐ nationswerkzeuge, bei denen die Teilfunktionen infolge der Kombination mit anderen Funktionen nicht mehr so perfekt wie beim Einzelwerkzeug 127 3.4 Ausgewählte einfache Lösungsstrategien <?page no="128"?> ausgeübt werden können. In derartigen Fällen ist es grundsätzlich besser, die Einzelwerkzeuge mit ihren jeweils perfekten Funktionen beizubehalten, und keine Verschlechterung der Funktion durch fragwürdige Kombinationen zuzulassen. Haben Sie - in der Werkstatt - einen guten Automechaniker jemals mit einem Kombinationswerkzeug hantieren sehen? Für ihn kommen im Normalfall aus gutem Grund stets nur die jeweiligen Spezialwerkzeuge infrage. So ist beispielsweise eine im Handel erhältliche multifunktionelle Haus‐ haltschere weder eine gute Schere mit Drahtschneider, noch ein perfekt funktionierender Nussknacker, noch ein unter hoher Belastung brauchbarer Schraubendreher. Als Kronenkapselheber funktioniert das Gerät geradezu erbärmlich. Auch das viel gerühmte Schweizer Militärmesser überzeugt in schutzrechtlicher Hinsicht nicht: Der Vorteil, „alles beieinander“ zu haben, wird durch den Nachteil erkauft, dass die zahlreichen Zusatzgeräte deutlich schlechter funktionieren als die entsprechenden Einzelwerkzeuge. Hier haben wir es mit einem Kompromiss zwischen Multifunktionalität und dem jeweiligen Grad der Funktionserfüllung zu tun. Derartige Kompromisse sind, wie gesagt, an sich nicht schutzfähig. Falls aber ein Kombinationsgerät einigermaßen praktisch ist, was sich beim Schweizer Militärmesser ja nicht leugnen lässt, kann man sich anstelle eines Patentes mit der Anmeldung eines Gebrauchsmusters behelfen. Für Gebrauchsmuster (s. Kap. 7.5) galten bis 2006 geringere Anforderungen an die Erfindungshöhe. Allzu dilettanti‐ sche Kombinationen wurden und werden, so oder so, ohnehin vom Markt eliminiert. Kommen wir nun zu den ungewöhnlichen, ohne Zweifel schutzfähi‐ gen, den eigentlichen Kombinationen. Ursprünglich hatte Altschuller (1973, S. 137) das Kombinationsprinzip so definiert: „Es sind gleichartige oder für benachbarte Operationen bestimmte Objekte zu vereinigen“. Ich meine, dass zur Vermeidung von Missverständnissen eine wesentliche Ergänzung praktisch wäre, die stets beachtet werden sollte: „Es sind Funk‐ tionen und/ oder Stoffe (bzw. Felder) zu vereinigen, um ungewöhnliche, nicht vorhersehbare Wirkungssteigerungen zu erzielen“. Bei den unstrittig schutzfähigen „echten“ Kombinationen dürfen nicht nur keine Nachteile auftreten, sondern es müssen möglichst überraschende zusätzliche Effekte erzielt werden. Effekte (Wirkungen) sind an sich nicht schutzfähig, wohl aber ist es jede Verfahrens- oder Stoff-Kombination, die zu einem solchen überraschenden Effekt (hier: im Sinne einer Effizienzstei‐ gerung) führt. Derartige Zusatzwirkungen werden als Synergien bezeichnet. 128 3 Methoden und Praxisempfehlungen <?page no="129"?> Während bei Konzernfusionen das Modewort „Synergie“ als Worthülse zur Irreführung harmloser Aktionäre missbraucht wird, ist der Begriff hier völlig ernst gemeint. So ließe sich formulieren, dass das Ergebnis einer schutzfähigen Kombination nicht additiv, sondern exponentiell zu sein hat (symbolisch: „1 + 3 > 4 (z. B. = 7,3)“). Kommen wir zur näheren Erläuterung dieser über-additiven Effekte, wobei hier speziell das von Altschuller aus der etwas einseitigen Sicht des Ingenieurs nicht behandelte - jedoch besonders wichtige - Gebiet der stofflichen Synergien betrachtet werden soll. Analysieren wir die Wirkung einer Mischung aktiver Stoffe, so sind drei Fälle zu beobachten. Zum einen kommt es vor, dass sich die Wirkung einer solchen Stoffmischung anteilig addiert aus der zuvor getrennt ermittelten Wirkung der Einzelstoffe; dieser Fall ist erfinderisch uninteressant (1 + 1 = 2). Von besonderem Interesse hingegen sind die beiden anderen Fälle, die mit den Begriffen „Synergismus“ (über-additive Verstärkung der Gesamtwir‐ kung bei Wechselwirkung der Systemkomponenten; z. B. „1 + 1 = 3,2“) und „Antagonismus“ (Abschwächung der Gesamtwirkung bei der Interaktion von zwei oder mehr Stoffen, d. h. also etwa „1 + 1 = 1,3“) gekennzeichnet werden. Bei Arzneimittelanmeldungen wird heute oft unmissverständlich formuliert, dass es sich um Synergismen handelt (die Begriffe Synergie und Synergismus sind sachlich gleichwertig; bei stofflichen Wechselwirkungen, z. B. in Rezepturen, wird gewöhnlich der Terminus Synergismus verwendet). Weder Synergismen noch Antagonismen sind, für sich gesehen, schutz‐ fähig, eben weil es sich um Effekte (Wirkungen) handelt, die in der Patent‐ spruchpraxis den Entdeckungen gleichgestellt werden. Schutzfähig sind hingegen Wirksysteme bzw. Mischungen bzw. Rezepturen, deren Kompo‐ nenten in Wechselwirkung miteinander überraschenderweise zu Synergis‐ men bzw. Antagonismen führen. Anzuraten ist immer und überall, insbesondere aber beim Experimen‐ tieren, neu auftauchende Synergismen bzw. Antagonismen besonders zu beachten und möglichst umgehend zu sichern. Speziell in der Pharmako‐ logie spielen Synergismen eine entscheidende Rolle. Sucht man danach, sollten altbekannte Stoffe niemals unberücksichtigt bleiben. In einem neuen Zusammenhang - beim Erproben einer Kombination altbekannter mit neu gefundenen Stoffen - können immer noch ungewöhnliche Effekte auftreten. Für die Beurteilung der Schutzfähigkeit ist es in solchen Fällen allerdings wichtig, ob Synergismen im Zusammenhang mit einem lange bekannten 129 3.4 Ausgewählte einfache Lösungsstrategien <?page no="130"?> 1 Die Unsitte des Durcheinanderschluckens einander beeinflussender Substanzen führt zu synergetisch verblüffenden Effekten. In der DDR wurde die Kombination Cola + Faustan im Volke als „LSD des kleinen Mannes“ bezeichnet. LSD (Lysergsäuredie‐ thylamid) ist heute nicht mehr so recht in Mode. Sein in den sechziger Jahren des vorigen Jahrhunderts aktiver Prophet Timothy Leary ist inzwischen sanft verblichen. Heutige Varianten sind „einen Zacken schärfer“ und wirken nicht selten tödlich: Mit nach Konzentration und Zusammensetzung kaum definierten Mitteln, wie gewissen Pilzen und daraus bereiteten Extrakten, wird von „coolen“ Nachwuchskräften wild herumgepfuscht. Stoff schon häufig beobachtet wurden, und somit ein gewisser Grad an Vorhersehbarkeit gegeben ist. Wahrscheinlich kann Coffein in dieser Hinsicht nicht mehr allzu sehr strapaziert werden. Zwar finden wir immer wieder Angaben zur Erhöhung der Wirksamkeit einfacher schmerzstillender Pharmaka in Kombination mit Coffein, aber bereits beim Studium älterer Übersichtswerke zeigt sich, dass genau dieser Effekt alles andere als neu ist (Hauschild 1958, S. 51). Somit dürften weitere „Neuheiten“ auf diesem Gebiet inzwischen als mehr oder minder naheliegend gelten. Besonders interessant sind Fälle, in denen Synergismen gleichzeitig neben Antagonismen beobachtet werden: 1 „Wird die N-ständige Methylgruppe im Morphin, im Levorphanol oder einigen ande‐ ren Mitteln durch einen Allylrest ersetzt, erhält man Verbindungen, welche typische Morphinantagonisten sind. Sie wirken schwach analgetisch, aber sie beseitigen die Euphorie sowie die atemdepressiven und sonstigen Wirkungen der euphorisierenden Analgetika. Lediglich die analgetische und hustenhemmende Wirkung dieser Stoffe wird nicht unterdrückt, sondern eher verstärkt“ (Hauschild u. Görisch 1963, S. 274). Unser letztes Beispiel betrifft ein ganz spezielles - möglicherweise etwas gewöhnungsbedürftiges - Pralinenrezept. „Man nehme feine Schokolade, etwas guten Essig, Ausdauer und eine gute Portion Kreativität, und fertig ist ein Erfolgsrezept, das um die halbe Welt geht …“ (Hubert 2002). So wird, ein wenig reißerisch, die Erfindung der „Essig-Schleckerle“ beschrieben. Es handelt sich dabei um süßsaure Pralinen, die vom Weinpapst Hugh Johnson kurz und knapp mit „truly superb“ beurteilt wurden. Wir haben es hier ersichtlich mit einem Geschmacks-Synergismus von hohen Graden zu tun. Dies spiegelt sich u. a. auch in der schutzrechtlichen Situation wider: Während Pralinenrezepturen gewöhnlich nicht patentierbar sind, war hier eine Ausnahme möglich, weil durch ungewöhnliche Zutaten eine völlig neue 130 3 Methoden und Praxisempfehlungen <?page no="131"?> Geschmackskomposition erreicht wurde. Das Geheimnis der ungewöhnli‐ chen Kreation liegt vor allem in der Auswahl der Schokolade. Schokoladen‐ arten, die aufgrund ihrer Herstellung zu viel Eigensäure enthalten, scheiden aus, „damit nicht zwei unterschiedliche Säuren aufeinandertreffen und sich verstärken“, so der von Hubert (2002) zitierte Pralinenmacher Schell. Demnach zeigt uns dieses Beispiel einerseits den Synergismus (Scho‐ kolade, möglichst frei von unerwünschten Nebenkomponenten, ergibt in Kombination mit Essigsäure ein Produkt mit überraschend positiver Geschmacksnote), andererseits den unerwünschten Antagonismus: Falls die Schokolade herstellungsbedingt eigene Säurebestandteile enthält, ver‐ schlechtert dies in Kombination mit Essigsäure den Geschmack. 3.4.4 Das Elementarprinzip der Umkehrung Das Elementarprinzip der Umkehrung ist - neben den Paradoxien und den Widersprüchen - das für den Kreativen wohl wichtigste Prinzip überhaupt. Das Prinzip ist von verschiedenen Seiten aus zu beleuchten und auf ver‐ schiedenen Abstraktionsebenen gleichermaßen gültig. Zunächst einmal ist das Umkehrprinzip eine Aufforderung an den Kreativen, jede Richtlinie, jedes Verfahren, jeden Prozess, jede Abfolge von Handlungs‐ schritten usw. erst einmal von der jeweils entgegengesetzten Position aus zu betrachten, bzw. einfach umzudrehen. Besonders nützlich ist, wenn man für beliebige Objekte oder Sachverhalte jeweils das Gegenstück bzw. die Umkehrformulierung finden kann. Methodischer Hauptnutzen des Um‐ kehrprinzips ist die Überwindung von Denkblockaden und eingeschliffenen Vorurteilen. Es wird nicht das gemacht, was „man“ allgemein macht, sondern das genaue Gegenteil. So kann in geometrischer Hinsicht alles umgedreht werden (rechts statt links, oben statt unten, schräg statt gerade usw.). Allerdings sind rein geome‐ trische Umkehrungen, obzwar manchmal technisch durchaus interessant, im Allgemeinen nicht schutzfähig - es sei denn, dass vom Antragsteller unstrittig existierende Vorurteile gegen die umgekehrte Konstruktion nach‐ gewiesen werden können. Auch Prozesse und Verfahren haben oft ihren Umkehrvorgang: Aufladen bzw. Entladen des Akkumulators, Verdampfen und Kondensieren, Sublimieren und Abscheiden aus der Dampfphase („Des‐ ublimieren“), Auflösen und Auskristallisieren, Abdrehen bzw. Aufmaßen von Verschleißteilen. 131 3.4 Ausgewählte einfache Lösungsstrategien <?page no="132"?> Während man sich im Maschinenbau, zumindest als untrainierter Krea‐ tiver das Umkehrverfahren stets neu vor Augen halten muss, gehört das Prinzip in der Chemie zu den Selbstverständlichkeiten. Beispielsweise Re‐ doxreaktionen, Gleichgewichte, das Prinzip von Le Chatelier zeigen, dass dem Chemiker das Denken nach beiden Richtungen nicht schwerfallen dürfte. In der Praxis wird dennoch viel übersehen. Eindrucksvolle Beispiele finden sich überall, sogar auf dem Gebiet der Archäologie. Unter dem Titel „Rätselgalerie am Seeufer“ wurde ein „Stein‐ zeittrick“ geschildert, der das Prinzip der Umkehrung in einem geradezu exotischen Umfeld überzeugend beleuchtet. Am Onegasee gibt es eine Landzunge, die für ihre Felszeichnungen berühmt ist. Diese nur vom Was‐ ser aus sichtbaren Felszeichnungen, steinzeitliche Jagddarstellungen, sind unmittelbar über der Wasseroberfläche angebracht, so dass die mit der Untersuchung befassten Wissenschaftler bei stärkerem Wellengang häufig ihre Arbeit unterbrechen mussten. Jahrelang konnte sich keiner erklären, warum die Steinzeitkünstler einen derart ungünstigen Ort gewählt hatten. Endlich kam jemand auf den Einfall, die Wahl dieses Standortes für Absicht zu halten, und schon lichtete sich - buchstäblich - das Dunkel. Bei leichtem Wellengang und ganz bestimmter Beleuchtung beginnen sich die Figuren zu bewegen: Der Jäger ersticht den Wolf, das von einem anderen Jäger geworfene Beil erreicht sein Ziel, eine Schlange windet sich, als sei sie lebendig. Wir haben also ein „Urzeitkino“ vor uns! Während bei der gängigen Kinematografie die Bilder ruckweise transportiert und vom Auge gleich‐ sam „verschmolzen“ werden, schufen Steinzeitkünstler die Illusion der Bewegung nach dem umgekehrten Prinzip: starres Bild, nach Intensität, Einfallswinkel und Phase variierende Beleuchtung („neuerer“ 1980). In einer Rezension zu meiner „Erfinderfibel“ (Zobel 1985), in der ich das Beispiel erläutert hatte, findet sich dazu ein sehr interessanter Gedanke. Das Beispiel, so schreibt Kochmann (1987, S. 46) sinngemäß, sei ein schlüssiger Beleg dafür, dass der Mensch schon lange vor dem Auftauchen schriftlicher Überlieferungen über hoch kreative Denkstrukturen verfügt haben muss. Tatsächlich leuchtet dieser zunächst verblüffende Gedanke bei näherem Überlegen durchaus ein. Er erklärt zugleich, warum heute Angehörige wenig entwickelter Völkerschaften in der Lage sind, während ihres Studi‐ ums in hoch industrialisierten Ländern nicht nur aktuelles Spitzenwissen aufzunehmen, sondern es auch schöpferisch anzuwenden und selbstständig weiterzuentwickeln. 132 3 Methoden und Praxisempfehlungen <?page no="133"?> Zurück zur heutigen Technik. Dem Prinzip der Umkehrung entspricht auch das Verfahren der elektrolytischen Abtragung als Komplementärver‐ fahren zur kathodischen Abscheidung. Allgemein bekannt ist, dass man - auf galvanischem Wege - Werkstücke oberflächlich metallisieren, z. B. ver‐ chromen, vernickeln oder verkupfern kann. Dabei werden an der Kathode Metallionen zum Metall reduziert, welches sich auf dem zu beschichtenden Werkstück abscheidet. Die Masse des kathodisch geschalteten Gegenstandes nimmt dabei zu. Betrachten wir nun den parallel dazu an der Anode verlaufenden Vorgang, eben den Umkehrvorgang, so haben wir es dort statt der kathodischen Abscheidung mit der anodischen Auflösung zu tun. Die Anode verliert dabei an Gewicht. Das ist der physikalisch-chemische Sachverhalt. Die technische Nutzung des letzt genannten Vorganges beruht nun darauf, dass die Oberfläche der Anode, sofern sie rau ist, ungleichmäßig abgetragen wird. An erhabenen Stellen (bzw. an Spitzen bzw. Graten) ist die Stromdichte stets höher als auf der glatten Fläche („Spitzeneffekt“). Dies führt, bis Nivellierung eingetreten ist, zu unterschiedlich schnellem Abtrag. Nutzen lässt sich dieser Effekt zum so genannten „anodischen Glänzen“: Raue Gusskörper werden, anodisch geschaltet, in einem phosphorsäurehal‐ tigen Bad behandelt. Nach erfolgtem Abtrag der rauen Partien erscheint die Oberfläche solcher Teile schließlich hochglänzend. Das Verfahren wird in großem Maßstab zur Oberflächennachbehandlung von Flugzeugtriebwerks- Ele-menten, insbesondere Turbinenschaufeln, eingesetzt. Dies alles ist technisch interessierten Lesern weitgehend bekannt und erscheint insofern fast selbstverständlich. Wenn wir jedoch die Geschichte der industriellen Nutzung beider Technologien (der galvanischen Abschei‐ dung einerseits und des anodischen Abtrags andererseits) untersuchen, so stoßen wir auf einen fast typischen Sachverhalt. Während die kathodische Abscheidung (Galvanisierung) längst gängige Praxis war, kam zunächst niemand auf die Idee, den Umkehrvorgang, die anodische Auflösung, indus‐ triell zu nutzen. Dies geschah, wie so oft in analogen Fällen, erst deutlich später, obwohl die anodische Auflösung - klar ersichtlich für die Fachleute - von Anfang an als Umkehrvorgang der galvanischen Abscheidung im Galvanisierungsbad zu beobachten war. Das anodische Glänzen wurde aber erst deutlich später industriell eingeführt, obwohl das technische Bedürfnis dafür bestand, und die physikalischen Grundlagen bereits genau bekannt waren. 133 3.4 Ausgewählte einfache Lösungsstrategien <?page no="134"?> Nun wird sich mancher Leser sagen: „Schön, mag sein, aber das sind doch sicher Ausnahmen. Gewöhnlich denkt man doch als Naturwissenschaftler bzw. Techniker fast automatisch an die Umkehrung“. Leider sieht die Realität völlig anders aus. Es scheint geradezu der Nor‐ malfall zu sein, nicht an die Umkehrung zu denken. Dies gilt selbst für hoch‐ karätige Wissenschaftler. Zum Beleg für diese Behauptung wollen wir einige physikalische Effekte betrachten. Effekte (Wirkungen, naturgesetzmäßige Ursache-Wirkungs-Beziehungen) spielen beim technisch-kreativen Arbei‐ ten eine entscheidende Rolle. Ob neu gefunden oder bereits lange bekannt, gelten sie als Entdeckungen und sind als solche im Sinne des Patentgesetzes nicht schutzfähig. Jedoch sind sie meist der Ausgangspunkt hochwertiger Erfindungen. Wer es versteht, mithilfe einer Ursache-Wirkungs-Beziehung (eines physikalischen, chemischen oder biologischen Effektes), eine neue Mittel-Zweck-Beziehung aufzubauen, der hat eine Erfindung gemacht. Nä‐ heres dazu findet sich im 7. Kapitel sowie in meinen Büchern zum Thema (Zobel 2006 a, 2006 b). Für unsere hier in Rede stehende Umkehrbetrachtung ist die Feststellung wichtig, dass das Umkehrprinzip auch für Entdecker, die ja nicht zu Unrecht noch vor den Erfindern rangieren, nicht selbstverständlich zu sein scheint. In der Einleitung zur Monografie „Physikalische Effekte“ von Schubert findet sich eine interessante Bemerkung: „Bei einer großen Gruppe von Effekten lassen sich Ursache und Wirkung vertau‐ schen. Man erhält so Paare von Umkehr-Effekten, wie z. B. Seebeck- und Peltier-Ef‐ fekt, Wiedemann- und Wertheim-Effekt, Dufour- und Ludwig-Soret-Effekt usw. Diesen Effekten liegt meist eine einfache Proportionalität zwischen den Meßgrößen zugrunde. Die Bezeichnung inverse Effekte ist ebenfalls üblich“ (Schubert 1984, S. IX). Liest man diese Sätze unbefangen, so drängt sich die Schlussfolgerung auf, die Beziehungen zwischen Effekt und Umkehreffekt seien einfach, klar und für jedermann verständlich. Damit scheint gleichzeitig festzustehen, dass zum Zeitpunkt der Entdeckung eines Effektes der Entdecker sofort an den möglicherweise existenten Umkehreffekt hätte denken können bzw. müssen. Dies erscheint insbesondere deshalb naheliegend, weil ein Entdecker gewöhnlich an der geistigen Front seine Zeit operiert, so dass ihm zugetraut werden sollte, Ursache und Wirkung bei einem von ihm neu entdeckten Phänomen, das ihn gerade deshalb besonders fesseln müsste, gedanklich und/ oder experimentell umzukehren. Folglich wäre 134 3 Methoden und Praxisempfehlungen <?page no="135"?> eigentlich zu erwarten, dass, wenigstens in den allermeisten Fällen, das Jahr der Entdeckung und der Entdecker eines Effektes identisch sein müssten mit dem Jahr der Entdeckung und dem Entdecker des zugehörigen Umkehreffektes. Die Wirklichkeit sieht anders aus. Fast nie wurde der Umkehreffekt vom gleichen Physiker gefunden, der den Originaleffekt (das zuerst entdeckte Phänomen) beobachtete und beschrieb. Noch erstaunlicher sind die Zeitdifferenzen zwischen der Entdeckung des Effekts und der Entdeckung des Umkehreffekts. Meist vergingen Jahre, manchmal Jahrzehnte, bis der Umkehreffekt gefunden wurde. Seltsamer‐ weise ist diese von mir bereits vor längerer Zeit publizierte Beobachtung (Zobel 1991) von anderen Autoren bisher nicht kommentiert worden. Betrachten wir Tab. 3. Sie wurde im Wesentlichen anhand der lexikalisch aufgebauten Monografie von Schubert (1984) zusammengestellt und zeigt den erläuterten Sachverhalt derart deutlich, dass wir uns bei unseren persönlichen Schlussfolgerungen kurz fassen können. Wenn noch nicht einmal die Avantgarde der Wissenschaft (man beachte die großen Namen in Tab. 3) in der Lage zu sein scheint, das universelle Umkehr-Denken konsequent anzuwenden, dann sollten wir, die wir uns bestenfalls zu den Talenten zählen dürfen, die Qualität des eigenen Denkens sehr selbstkritisch beurteilen. Allerdings ist heute, in einer Zeit exzessiver Entwicklung, die Denkmetho‐ dik vielleicht doch schon an jenem Punkt angelangt, der dem viel zitierten Umschlag von Quantität in Qualität entspricht. Somit sollten wir uns be‐ wusst darauf orientieren, wenigstens denkmethodisch etwas konsequenter als unsere wissenschaftlichen Vorfahren zu arbeiten, denen offensichtlich der Vorteil des routinierten Umkehr-Denkens nicht geläufig war. Ich habe die Frage, was die Ursache für das Übersehen der Umkehreffekte durch große Entdecker gewesen sein könnte, auch in meinen Seminaren gestellt. Viele Teilnehmer meinten, die bloße Freude über die jeweilige Ent‐ deckung habe weiterführende Überlegungen wohl völlig in den Hintergrund gedrängt. 135 3.4 Ausgewählte einfache Lösungsstrategien <?page no="136"?> Effekt Umkehreffekt Seebeck-Effekt 1822 (in einem aus zwei verschiedenen Lei‐ tern gebildeten Stromkreis entsteht eine Thermospannung, wenn die Lötstellen unterschiedliche Temperaturen aufwei‐ sen) Peltier-Effekt 1834 (fließt in einem sol‐ chen Kreis ein Strom, so wird an den Lötstellen Abkühlung oder Erwärmung beobachtet) Wertheim-Effekt 1852 (verdreht man einen Draht aus ferromagnetischem Material, so tritt Magne‐ tisierung ein) Dufour-Effekt 1872 (bringt man einen ferromgnetischen Draht in ein Magnetfeld und schickt einen Strom hindurch, so tordiert sich der Draht: Magnetostriktion) Piezoelektr. Effekt, Curie 1880 (mechanische Deformation eines Kris‐ talls bewirkt elektrische Polarisation; es baut sich eine Spannung auf, die sich per Piezo-Funken entlädt) Inverser Piezo-Effekt, Lippmann 1881 (beim Anlegen einer elektrischen Span‐ nung deformiert sich der Kristall) Barnett-Effekt 1915 (schnelle Rotation eines in Richtung seiner Längsachse frei aufgehängten Ei‐ senstabes führt zur Magnetisierung) Einstein-De Haas-Effekt 1915, von Richardson 1908 vorausgesagt (ein in Richtung seiner Längsachse frei aufgehängter Eisenstab beginnt zu ro‐ tieren, wenn er magnetisiert wird) Tab. 3 Physikalische Effekte und ihre Umkehreffekte: Der Entdecker eines Effektes ist meist nicht der Entdecker des Umkehreffektes; der Umkehreffekt wird oft sehr viel später als der Originaleffekt gefunden Auf unsere kreative Arbeit bezogen, lautet die klare Empfehlung: Zu jedem Effekt, unabhängig davon, ob lange bekannt oder neu entdeckt, ist der Umkehreffekt zu suchen. Gibt es ihn nicht (z. B. ist der Hall-Effekt nicht umkehrbar), so ist zu überlegen, warum der Effekt nicht umkehrbar ist. In einzelnen - sicherlich seltenen - Fällen ist auch heute noch vorstellbar, dass der zugehörige Umkehreffekt existiert, auch wenn er bislang nicht gefunden bzw. beschrieben worden ist. Genau die gleichen Denkmuster sind zweckmäßigerweise auch auf die eigenen Erfindungen anzuwenden. Die selbst gestellten Fragen sollten lauten: Lässt sich das erfindungsgemäße Mittel so umkehren, dass der dem ur‐ sprünglichen Zweck genau entgegengesetzte Zweck erreichbar ist? Welches (Umkehr-)Mittel liefert welche (Umkehr-)Wirkungen? 136 3 Methoden und Praxisempfehlungen <?page no="137"?> Lassen sich Mittel und Umkehr-Mittel derart pfiffig kombinieren, dass ungewöhnliche Mittel-Zweck-Relationen geschaffen werden können? Abgesehen vom hier empfohlenen übergreifenden Gebrauch des Begriffes Umkehrung ist Umkehrung, im direkten Sinne von Funktionsumkehr, eines der von Altschuller in die Erfindungslehre eingeführten Prinzipien zum Lösen Technischer Widersprüche. Wir finden den Begriff, jeweils unter der Nr. 13, sowohl in der ursprünglichen Liste der 35 „klassischen“ Lösungsprin‐ zipien (Altschuller 1973) wie auch in der heute allgemein gebräuchlichen aktualisierten 40er Liste (s. 3.1.2). Prin‐ zip Nr. Bezeichnung 1 Zerlegen 2 Abtrennen 3 Schaffen optimaler Bedingungen 4 Asymmetrie 5 Kombination 6 Mehrzwecknutzung 7 Matrjoschka („Eins im Anderen“, „Steckpuppe“) 8 Gegengewicht durch aerodynamische, hydrodynamische und magneti‐ sche Kräfte 9 Vorspannen 10 Vorher-Ausführung 11 Vorbeugen 12 Kürzester Weg, ohne Anheben oder Absenken des Objekts 13 Umkehrung 14 Sphärische Form 15 Anpassen 16 Nicht vollständige Lösung 17 Übergang in eine andere Dimension 18 Verändern der Umgebung 137 3.4 Ausgewählte einfache Lösungsstrategien <?page no="138"?> 19 Impuls-Arbeitsweise 20 Kontinuierliche Arbeitsweise 21 Schneller Durchgang 22 Umwandeln des Schädlichen in Nützliches 23 Keil durch Keil -Überlagern einer schädlichen Erscheinung mit einer anderen schädlichen Erscheinung 24 Zulassen des Unzulässigen 25 Selbstbewegung, „Von-Selbst“-Arbeitsweise 26 Arbeiten mit Modellen 27 Ersetzen der teuren Langlebigkeit durch billige Kurzlebigkeit 28 Übergang zu höheren Formen 29 Nutzen pneumatischer und hydraulischer Effekte 30 Verwenden elastischer Umhüllungen und dünner Folien 31 Verwenden von Magneten 32 Verändern von Farbe und Durchsichtigkeit 33 Gleichartigkeit der verwendeten Werkstoffe 34 Abwerfen oder Umwandeln nicht notwendiger Teile 35 Verändern der physikalisch-technischen Struktur, Anwendung von Phasenübergängen Tab. 4 Die 35 Prinzipien zum Lösen Technischer Widersprüche (Altschuller 1973). Die methodisch besonders wichtigen Prinzipien sind fett gedruckt. Am Beispiel der alten 35er Liste (Tab. 4) will ich nun zeigen, dass die Umkehrung ein geradezu universelles Prinzip ist. Jedenfalls sollte es hierar‐ chisch nicht mit anderen Prinzipien zum Lösen Technischer Widersprüche gleichgesetzt werden. Vielmehr bemerken wir, dass andere, von Altschul‐ ler als gleichrangig aufgeführte Begriffe dem Umkehrprinzip hierarchisch nachzuordnen sind. Für TRIZ-Kenner bedeutet dies zugleich, dass es neben der allgemein gebräuchlichen Matrix zum Auffinden der für die Lösung eines bestimmten Problems empfohlenen Prinzipien (Altschuller 1984; Herb, Herb und Kohnhauser 2000) noch eine weit bessere Möglichkeit gibt, zu 138 3 Methoden und Praxisempfehlungen <?page no="139"?> Lösungsempfehlungen zu kommen, nämlich die Hierarchie der Prinzipien zum Lösen Technischer Widersprüche. Meine früheren Versuche zu diesem Thema (Zobel 1982, 1985, 1991, 2006 a) erscheinen mir heute als noch nicht ganz ausgereift. Dennoch treffen die dort beschriebenen Grundmuster aus methodischer Sicht zu: a. Die Prinzipien sind ganz gewiss nicht gleichrangig. b. Es gibt neben den echten Universalprinzipien (wie: Umkehren, Ab‐ trennen, Zerlegen, Kombinieren, Von-Selbst-Arbeitsweise, unvollstän‐ dige Lösung) auch Prinzipien geringeren Verallgemeinerungsgrades (wie z. B. Asymmetrie, Sphärische Form, Gegengewicht, Arbeiten mit Modellen) sowie schließlich mehr oder minder spezielle Arbeitsemp‐ fehlungen (wie z. B. Verwenden von Magneten, Verwenden elastischer Umhüllungen und dünner Folien, Gleichartigkeit der verwendeten Werkstoffe). c. Einige Prinzipien ähneln einander so sehr, dass sie zusammengefasst werden sollten (Vorspannen, Vorher-Ausführen, Vorbeugen). d. Zu einigen der Prinzipien (Schneller Durchgang, Kürzester Weg) drängt sich die jeweilige Umkehrformulierung (Langzeitarbeitweise, Maximaler Weg) geradezu auf. Diese Umkehrformulierungen haben, ohne in der Tabelle 4 überhaupt vertreten zu sein, nach meiner Auffassung selbst fast den Status von Prinzipien. So hat sich Hölter beispielsweise einen „Langzeit-Wäscher“ patentieren lassen (Hölter et al., Pat. 1980/ 1982), der dem konventionell anerkannten Prinzip der maximalen Raum-Zeit-Ausbeute (kürzeste Verweilzeit bei höchster Effizienz) entgegen gesetzt arbeitet. Ferner entspricht die zwischen den Druckstufen eines mehrstufigen Kompressors eingesetzte Laby‐ rinth-Dichtung, in Umkehrung des kürzesten Weges, wörtlich wie technisch dem maximalen Weg. e. Von den echten Universalprinzipien ist die Umkehrung derart dominie‐ rend, dass Prinzipien aus der Liste (Tab. 4), welche Umkehraspekte zeigen, dem Umkehrprinzip zugeordnet werden sollten. Knüpfen wir nunmehr bei e) an und überlegen uns, welche „Unter-Umkehr- Prinzipien“ das sein könnten. Ich habe diesen Versuch in Tab. 5 zusam‐ mengefasst und jeweils die Begründung hinzugefügt, warum das jeweilige Prinzip nach meiner Auffassung dem Umkehrprinzip zugeordnet (d. h. hierarchisch nachgeordnet) werden sollte: 139 3.4 Ausgewählte einfache Lösungsstrategien <?page no="140"?> Umkehrung (13) als übergeordnetes Universalprinzip Nachgeordnete Prinzipien mit Umkehrcharakter: 16 Unvollständige Lösung (gewöhnlich wird Vollständigkeit angestrebt) 18 Verändern der Umgebung (gewöhnlich wird am Objekt gearbeitet) 22 Umwandeln des Schädlichen in Nützliches (fast direkte Umkehrung) 25 Zulassen des Unzulässigen (Umkehrung der gängigen Vorstellung, dass nur Zulässiges auch wirklich zulässig ist) 27 Ersetzen der teuren Langlebigkeit durch billige Kurzlebigkeit (Umkeh‐ rung der konventionell gültigen Regel, Langlebigkeit zu bevorzugen) Tab. 5 Die hierarchisch dem Umkehrprinzip nachgeordneten Prinzipien nebst Begründung für die vorgeschlagene Zuordnung. Die Nummern entsprechen denen der Prinzipien aus Altschullers ursprünglicher 35er Liste (Tab. 4) Einige der dem Umkehrprinzip zuzuordnenden Prinzipien (Verändern der Umgebung, Umwandeln des Schädlichen in Nützliches, Unvollständige Lösung) haben eine derartig umfassende praktische Bedeutung, dass ich sie in den folgenden Abschnitten 3.4.5, 3.4.6 sowie 3.4.7 separat betrachten und ausführlicher behandeln werde. Es sollte niemals vergessen werden, dass das Umkehrprinzip nicht nur in der Technik, sondern auf allen Gebieten des Lebens von größter Bedeutung ist. Auch Arbeitsabläufe sollten nicht ausgenommen werden. Wir wollen ein Beispiel betrachten, und zwar den Zeitpunkt, zu dem das Literaturbzw. Patentstudium beim Bearbeiten eines anspruchsvollen Themas zu erfolgen hat. Gewöhnlich gilt als unstrittig, mit dem Literaturbzw. Patentstudium noch vor Beginn der Themenbearbeitung bzw. ganz am Anfang zu beginnen. Diese Regel sollte jedoch hinterfragt werden (ich bin unter 3.1.2 bereits kurz darauf eingegangen). Beginnt man wie üblich, blockiert man sich mit vielen Fakten z. T. zweifelhaften Wertes. Schwerer noch wiegen die zahlreichen Vorurteile, die in der Literatur herumgeistern. Nehmen wir hingegen an, dass alle publizierten Fakten stimmen: Der Literaturgläubige denkt dann sofort darüber nach, wie er die jeweils geschilderte Verfahrensweise verbessern kann. Hat er Pech, greift der im Abschnitt 3.2.5 geschilderte Effekt („Oase 140 3 Methoden und Praxisempfehlungen <?page no="141"?> der falschen Verheißung“). Nur selten gelingt eine Verbesserung: Das in der Literatur beschriebene System ist oft weit vom Idealen Endresultat entfernt, es liegt meist noch nicht einmal im Suchsektor (s. Abb. 3). Aus diesem Grunde sollte die Reihenfolge umgekehrt werden. Es ist besser, sich erst einmal unbefangen (Spötter nennen das: „Von keinerlei Sachkenntnis getrübt“) analytisch mit dem System zu befassen, und erst dann ein sehr gründliches Literaturstudium zu betreiben. Dirlewanger (2006) zitierte Untersuchungen, die Interessantes zur Fahrweise auf Autobahnen aussagen: langsamer ist besser. Ein Logistik-Unternehmen hielt seine LKW-Fahrer dazu an, auf zweispurigen Autobahnen nicht zu überholen. Die von der Konkurrenz immer wieder behaupteten Effizienzverluste traten nicht ein. Im Gegenteil: Die Fahrer, die sich nicht dem Stress langwieriger und riskanter Überholmanöver aussetzten, waren gelassener und zufriedener, der Spritverbrauch der Fahrzeuge nachweisbar geringer. Die meist geringfügigen Zeitgewinne durch die Überholmanöver waren im Gesamt-Zeitbudget unerheb‐ lich, das Unternehmen lieferte so pünktlich wie die Konkurrenz. Dem Umkehrprinzip entspricht auch, heimliches Arbeiten dem öffentlich verlangten vorzuziehen. Die Rede ist vom so genannte Bootlegging, also vom illegalen Arbeiten an einem Projekt, das den Bearbeiter interessiert, nicht aber die Firmenleitung: „Innovationen verdanken Unternehmen häufig nicht ihren Forschungsmanagern, sondern kreativen Einzelkämpfern, die eigene Ideen verfolgen, oft heimlich oder sogar gegen den ausdrücklichen Willen ihrer Vorgesetzten…. Bootlegger handeln bewusst gegen die Unternehmensstrategie und verwenden oft einen erheblichen Teil ihrer Arbeitszeit sowie Chemikalien oder andere Materialien für ihre verdeckte Tätigkeit. Das kann im Extremfall zu immensen Kosten für das Unternehmen führen … Nicht selten aber tritt das Gegenteil ein: Die Unternehmen profitieren vom Bootlegging … Häufig sind U-Boot-Projekte wirtschaftlicher und erfolgreicher als reguläre, denn die verbotene Arbeit zwingt zum effizienten Umgang mit den heimlich abgezweigten Ressourcen.“ (Neubauer 2006, S. 759) Zu den krassesten Beispielen für erfolgreiches Bootlegging zählt die Entwick‐ lung des Breitband-Antibiotikums Ciprofloxacin, Handelsname Ciprobay oder Cipro. Bayer erzielt damit Milliardenumsätze. Sein Erfinder ist der Chemiker Klaus Grohe, der ab 1975 heimlich an „seinem“ Projekt - gegen den ausdrückli‐ chen Wunsch des Forschungsmanagements - weitergearbeitet hatte. 141 3.4 Ausgewählte einfache Lösungsstrategien <?page no="142"?> Auch ein weiteres erfolgreiches Bayer-Produkt, das Atemwegs-Chinolon Moxifloxacin, wird nach der Grohe-Methode hergestellt. Dem erfolgreichen Erfinder wurde zwar das Bundesverdienstkreuz verliehen, dennoch sagt er rückblickend „Mit den Chinolonen habe ich meine Karriere verspielt“ (Neubauer 2006, S. 121). So ist es. Wer intensiv und mit Freude arbeitet, hat eben keine Zeit, sich um seine Karriere zu kümmern. Auch gilt wohl, dass „nicht sein kann, was nicht sein darf “. Allerdings ahnt der dialektische geschulte Leser, dass es so etwas wie einen „Umkehrtrieb“ zu geben scheint: Jede beliebige Behauptung regt dazu an, erst einmal das genaue Gegenteil zu behaupten, und die Richtigkeit der Gegenbehauptung dann mit Studien beweisen zu wollen. In der Medizin jedenfalls scheint das so zu sein. Lange wurden wir mit den Omega-Fettsäuren angenehm unterhalten. Der gesundheitsbewusste Bürger baute daraufhin mit gutem Gewissen viel Fisch in seine Ernährung ein. Nun kommt heraus, dass nach der Zubereitung (Braten, Kochen) die entscheidenden Doppelbindungen genannter Fettsäuren dahin sind. Roher Fisch aber ist nicht jedermanns Sache. Abschließend noch ein Umkehr-Beispiel aus dem täglichen Leben. Wenn ich in meiner früheren Tätigkeit als Betriebsleiter sehr daran interessiert war, dass eine Information verlässlich weitergegeben und verbreitet werden sollte, habe ich dazu nicht die Dienstberatung benutzt. In solchen Meetings kommt es bekanntlich vor, dass Teilnehmer unaufmerksam oder uninteressiert sind. Auch lässt sich beobachten, dass sie gelegentlich entschlummern. Dann funktioniert die Weitergabe von Informationen nicht mehr verlässlich. Ich habe deshalb in der Regel maximal zwei Personen, jeweils unter vier Augen, unter dem Siegel strengster Verschwiegenheit informiert, und die flächendeckende Weitergabe der Information war gesichert. Das Verfahren versagt allerdings, wenn man versehentlich doch einmal an verschwiegene Mitarbeiter gerät. 3.4.5 Das Verändern der Umgebung Altschuller (1973, S. 149) schreibt zu dieser Arbeitsrichtlinie: „Das äußere Medium bzw. die angrenzenden Objekte sind zu verändern“. Gewöhnlich arbeitet der Erfinder an bestimmten Objekten bzw. Verfah‐ ren, und seine Ideen betreffen zunächst Veränderungen, die unmittelbar am Objekt bzw. an den Verfahrensstufen bzw. den eingesetzten Apparaten vorgenommen werden. Diese Denkweise erscheint logisch, und sie ist in sehr vielen Fällen auch erfolgreich. 142 3 Methoden und Praxisempfehlungen <?page no="143"?> Allerdings kommt es vor, dass die unmittelbar am Objekt möglichen Veränderungen ihren Zweck nicht erfüllen, oder aber, dass Veränderungen am Objekt - aus welchen Gründen auch immer - schwierig oder nicht möglich sind. In solchen Fällen sollte das Prinzip „Verändern der Umgebung“ zum Zuge kommen. Betrachten wir einige Beispiele. Wenn ein im kV-Bereich arbeitendes Leistungsschütz unter voller Last gezogen wird, so führt der sich ausbildende Lichtbogen dazu, dass die Kontakte verbrennen. Der konventionelle Denker dürfte hier sagen: „Dann ersetzen wir eben die Kontakte durch ein hochwertiges Material, das den Lichtbogen unbeschadet übersteht“. Der unkonventionell denkende Kreative hingegen überlegt erst einmal, warum der Lichtbogen auftritt, und kommt zu der Erkenntnis, dass das Auftreten des Lichtbogens von der Anwesenheit eines ionisierbaren und somit leitenden Gases abhängt. Ist dieses Gas zudem - wie die üblicherweise infrage kommende Luft - stark sauerstoffhaltig, so verbrennen eben die Kontakte. Der Kreative greift deshalb nicht am Objekt selbst (dem Schalter bzw. den zum Verbrennen neigenden Kontakten) an, sondern er lässt das Objekt unverändert, und nutzt dafür das Prinzip „Verändern der Umgebung“. Dies bedeutet im vorliegenden Falle: Das den Schalter umgebende Gas darf unter den Bedingungen des Schaltvorganges nicht ionisierbar sein, und es darf keinen Sauerstoff enthalten. Die heute allgemein bekannte Lösung des Problems ist das Edelgas- Schaltschütz bzw. das Vakuum-Schaltschütz. Um das unverändert belassene Schütz wird ein Kasten gebaut, der mit Edelgas anstelle der Luft gefüllt wird. Das Edelgas entspricht der oben erläuterten Forderung, unter den Schaltbedingungen nicht ionisierbar zu sein, und keinen Sauerstoff zu enthalten. Noch konsequenter ist das Vakuum-Schaltschütz. Der um das Schütz herum gebaute Kasten wird evakuiert, denn das - im funktionalen Sinne - ideale Gas ist hier eben „kein Gas“! Das folgende Beispiel kommt uns, im Vergleich zum ersten Beispiel, zunächst nicht sehr ähnlich vor. Sehen wir aber näher hin, erkennen wir Analogien. So scheint generell zu gelten, dass zwecks Verbesserung der Ar‐ beitsweise von Maschinen oder Vorrichtungen nicht zwingend Änderungen an den Maschinen bzw. Vorrichtungen selbst erforderlich sind. Manchmal genügt es bereits, die betreffenden Apparate unter veränderten äußeren Bedingungen (z. B. im Vakuum, oder auch unter Überdruck, siehe folgendes Beispiel) arbeiten zu lassen. Trommelzellenfilter werden gewöhnlich unter Vakuum betrieben. Die perforierte, mit Filtertuch bespannte, in Sektionen unterteilte Trommel 143 3.4 Ausgewählte einfache Lösungsstrategien <?page no="144"?> dreht sich in einer Wanne, welche die Filtertrübe enthält. Das Innere der Trommel wird nun, Sektion für Sektion, evakuiert. Das Filtrat wird über die jeweils getaucht betriebenen Sektionen in die Trommel gesaugt und von dort ausgeschleust. Der Filterkuchen baut sich auf dem Filtertuch auf. Er wird, Sektion für Sektion, im jeweils oben befindlichen Teil der Tommel abgeblasen und per Schaber entfernt. Das ist die konventionelle Arbeitsweise. Stahl (Pat. 1979/ 1981) hat nun, be‐ wusst oder unbewusst, das Prinzip „Verändern der Umgebung“ angewandt, und den Trommelzellen- Filterapparat in einen Überdruckkasten gesetzt (Abb. 14). Die Filtertrommel wird jetzt nicht mehr - zum Zwecke des Einsaugens des Filtrates - evakuiert, sondern das Filtrat wird von außen durch das Filtertuch ins Innere der Trommel gepresst. Abb. 14 Trommelzellenfilter, das erfindungsgemäß nicht (wie üblich) unter Vakuum, sondern unter Überdruck betrieben wird (Stahl, Pat. 1979/ 1981) F: Filter S : Schleuse Ü: Überdruck-Kasten G: Gebläse Denken wir aber unter physikalischen Gesichtspunkten über die Sa‐ che nach, so wird uns klar, dass vom so genannten „Absaugen“ beim Vakuum-Filter, im Gegensatz zum „Durchpressen“ beim Druckfilter, 144 3 Methoden und Praxisempfehlungen <?page no="145"?> nicht die Rede sein kann. Funktionell geht die Anordnung, physikalisch gesehen, von keineswegs ungewöhnlichen Gesichtspunkten aus. Zwar liegt der Anordnung zweifellos der Gedanke zugrunde, die Luft nicht mehr innen herauszupumpen und somit den feuchten Filterkuchen ab‐ zusaugen, sondern ihn in der Überdruck-Kammer auspressen zu lassen. Jedoch spielt sich der beschriebene Filtrationsvorgang eigentlich nur auf einem insgesamt angehobenen Druckniveau (jedoch im Prinzip analog zur Vakuum-Variante) ab. Auch im Falle der Originalvariante wird das Filtrat im physikalischen Sinne eben nicht abgesaugt, sondern unter der Wirkung des atmosphärischen Drucks (von außen nach innen) durchge‐ presst. Worauf es ankommt, ist allein die Druckdifferenz. So gesehen taugt das Beispiel - aus der Sicht des übergeordneten Umkehrprinzips - besten Falles als Beleg für die Kategorie Pseudo-Umkehrung. Bezogen auf das dem Umkehrprinzip zuzuordnende Prinzip „Verändern der Umgebung“ ist das Beispiel hingegen im Wortsinne zutreffend. Bisher bestand die Arbeitsumgebung des Filters aus gewöhnlicher atmosphärischer Luft, nunmehr besteht sie aus Luft höheren Druckes. Besonders interessant wird es, wenn sich das jeweilige Objekt seine veränderte Arbeitsumgebung selbst schafft. Die sowjetische Marine verfügte über derart schnelle Torpedos, dass es der amerikanischen Konkurrenz angst und bange wurde. Die Torpedos waren viel schneller, als dies bei (wenn auch noch so strömungsgünstigen) bewegten Unter‐ wasserkörpern unter hydrodynamischen Gesichtspunkten überhaupt möglich erschien. Das Geheimnis besteht darin, dass sich ein solches Torpedo sein Medium, in dem es sich bewegt, selbst zu schaffen vermag. Die an sich schon sehr schnellen Torpedos erzeugen an der Grenzfläche zum Wasser Kavitationsdampfblasen, in denen sie dann - im Wasser‐ dampf, also einem Gas - unter nunmehr nicht mehr der Hydrodynamik gehorchenden Gesetzen gleichsam „fliegen“. Hier wurde das Prinzip „Verändern der Umgebung“ auf die Spitze getrieben. Unter methodischen Gesichtspunkten ist interessant, dass wir hier zwei weitere Möglichkeiten der systematischen Einordnung erkennen. Einerseits betrifft das Separationsprinzip Nr. 3 („Separation durch Bedingungswechsel bzw. Zustandswechsel“) den fast gleichen Sachverhalt, und deshalb habe ich das Beispiel bereits kurz unter 3.4.2 behandelt. Andererseits definiert das Prinzip zum Lösen Technischer Widersprüche Nr. 35 (Altschuller 1973) sowie Nr. 35 in Verbindung mit Nr. 36 (Altschuller 1984) ebenfalls die beinahe gleiche Arbeitsweise: „Verändern der physikalisch-technischen Struktur“ 145 3.4 Ausgewählte einfache Lösungsstrategien <?page no="146"?> bzw. „Anwendung von Phasenübergängen“. Dieses Prinzip bezieht sich zwar auf das Objekt selbst, der Kreative braucht das aber nicht so verbissen zu sehen. Die empfohlene Vorgehensweise kann mit Vorteil ebenso gut auch auf die Arbeitsumgebung des Objekts angewandt werden. Ein geradezu klassisches Beispiel ist die so genannte Montgolfiere. 1783 starteten die Gebrüder Montgolfier in Paris den ersten Heißluftballon. Betrachten wir den unten offenen Ballon als Objekt, so sehen wir, dass die sowohl innen wie außen befindliche Luft als die Umgebung des Objekts definiert werden kann. Betrachten wir nun das Erwärmen der im Ballon befindlichen Luft, so haben wir jenen Teilbereich der Umgebung vor uns, dessen Veränderung zum Erreichen des angestrebten Zieles erforderlich ist. Die Veränderung ist hier ebenfalls, wie bei den oben erläuterten Beispielen, rein physikalischer Art. Die Dichte der erwärmten Luft ist geringer als die der nicht erwärmten Außenluft. Es entsteht Auftrieb, der Ballon erhebt sich und kann nun fahren. „Verändern der Umgebung“ bedeutet für den Kreativen, und dies gilt für alle anderen Prinzipien auch, nicht nur eine rein technische Empfehlung. Denken wir nur an den berühmten „Tapetenwechsel“, den wir uns selbst ruhig ab und an einmal verordnen sollten. In einer neuen bzw. veränderten Umgebung sieht manches, das wir für feststehend, unbestritten, unveränderlich hielten, auf einmal ganz anders aus. Dies gilt auch für die Sitten und Gebräuche. Mit welchem Recht eigentlich dürfen wir unsere Normen für die allein gültigen halten? Jedenfalls sollten wir uns, sei es auch nur aus reiner Höflichkeit, dazu erziehen, uns fremd erscheinende Sitten und Gebräuche als gleichberechtigt anzuerkennen. Ob man dann unbedingt mitmacht, bleibt einem selbst überlassen. In China (ich war glücklicherweise vorgewarnt) erlebte ich, dass am Tische in einer für uns gewöhnungsbedürftigen Lautstärke geschlürft wurde. Nach kurzer Zeit legte ich „Europens übertünchte Höflichkeit“ (J. G. Seume) auf diesem Gebiet vollständig ab. Hingegen beteiligte ich mich nicht daran, die Hülsen der Sonnenblumenkerne in der Gaststätte einfach auf den Boden zu spucken. Die Stäbchen wiederum lernte ich souverän zu gebrauchen, schon aus purem Überlebenswillen, denn in der tiefsten Provinz bekam man als Westler nicht etwa - wie in den Luxushotels der großen Städte - automatisch ein Besteck. Viel wichtiger war jedoch, sich auf die völlig andere Gesprächstechnik der Partner einzustellen. Die meisten Chinesen drücken sich sehr indirekt aus, „ja“ bedeutet nicht unbedingt Ja, zumal „nein“ fast immer vermieden wird. Falls ein 146 3 Methoden und Praxisempfehlungen <?page no="147"?> Westler fachliche Empfehlungen gibt, sollte er sie keinesfalls als solche bezeichnen, dies könnte als Schulmeisterei empfunden werden. Besser ist: „Bei uns in Europa haben wir ganz gute Erfahrungen mit der und der Vorgehensweise gemacht“. So behält der Partner sein Gesicht, kann er doch beispielsweise antworten, dass seine Bedingungen leider ganz andere seien - oder gar nichts sagen, und den Tipp später nutzen. Zur Veränderung der Umgebung zählt auch, dass wir uns nicht grund‐ sätzlich und ausschließlich mit Leuten etwa gleichen Alters, gleicher Ausbildung, gleicher Meinungen und gleicher Interessengebiete umge‐ ben sollten. Viele - angeblich besonders erfolgreiche - Teams sind aber genau so strukturiert. Natürlich ist es angenehm, wenn die Mitglieder eines derart homogenen Teams einander blind verstehen und deshalb ohne Redundanz arbeiten können. Jedoch sollten wir bedenken, dass ungewöhnliche Ideen in einer solchen Umgebung nur selten entstehen können. Dies liegt einfach daran, dass alle Teammitglieder die gleiche Art von Betriebsblindheit haben und die gleichen Vorurteile pflegen. Des‐ halb kann es für den Einzelnen recht vorteilhaft sein, ein solches Team zu verlassen und die Arbeitsumgebung konsequent zu wechseln. Ein die Kreativität anregendes Team sollte aus Menschen unterschiedlichen Alters, Männern und Frauen, Erfahrenen und Unerfahrenen, Vertretern unterschiedlicher Ausbildungsrichtungen, Theoretikern und Praktikern bestehen. Auch die Neigungen, Fähigkeiten und Fertigkeiten der Team‐ mitglieder sollten die gesamte Innovationskette berücksichtigen. Ein ausschließlich mit dem Kreieren neuer Ideen befasstes Team ist kaum lebensfähig. Dies ist im Prinzip schon lange bekannt, es scheint aber immer wieder in Vergessenheit zu geraten. So führte Karcev bereits 1979 als einleuchtendes Beispiel die „Abenteuer der drei Musketiere“ an. Das „Heldenkollektiv“ bei Dumas besteht aus d`Artagnan (dem Ideengenerator und Organisator), Athos (dem Kritiker), Aramis (dem Experten) und Porthos (dem Ausführenden). Die Struktur diese einzigartigen Kollektivs, so Karcev, kam der Optimalität sehr nahe, und eine z. B. „aus vier d`Artagnans bestehende Gruppe von Musketieren hätte mit hoher Sicherheit ein überaus trauriges Ende gefunden“ (Karcev 1979). Tatsächlich haben Untersuchungen in amerikanischen Konzernen ergeben, dass eine in einem Arbeitsbereich absichtlich erzeugte Häufung von hochkreativen Ideengeneratoren der Effizienz eher abträglich ist. Die ehrgeizigen Jungdynamiker treten einander dauernd auf die Zehen. Keiner will sich in den Niederungen der Umsetzung bzw. technischen Anpassung 147 3.4 Ausgewählte einfache Lösungsstrategien <?page no="148"?> tummeln, und dies schon gar nicht, wenn die Ideen der Anderen überführt werden sollen. Genau hier knüpft nun Karcevs Prinzip der Rollenverteilung an. Die Rolle von Porthos, der „nur“ als Ausführender wirkt, wird oft missverstanden. Der Ausführende in einem kreativ arbeitenden Team ist keineswegs ein Realisierungsknecht, der nur auf Anweisung des Ideengebers arbeitet. In der industriellen Praxis hat der Ausführende, als hoch geschätzter Spezialist auf seinem Gebiet, in der Regel sogar bedeutende schöpferische Leistungen zu erbringen: Was nützt die schönste Idee, wenn sie in der Phase ihrer technischen Umsetzung auf Sand läuft? 3.4.6 Das Umwandeln des Schädlichen in Nützliches Altschuller (1973, S. 153) gibt zur Nutzung dieses Prinzips die folgende Arbeitsanweisung: „Schädliche sind in nützliche Faktoren umzuwandeln; das Problem ist nach dem Gesichtspunkt zu analysieren, unter welchen Bedingungen sich die Anwendung des Schädlichen für nützliche Zwecke verwirklichen lässt“. Betrachten wir einige Beispiele. Rost gilt als unbedingt schädlich. Sehr viel Geld wird für den Korrosionsschutz ausgegeben. Beim so genannten KT-Stahl (korrosionsträgen Stahl) verzichtet man dagegen völlig auf einen Anstrich, und lässt die Oberfläche bewusst anrosten. Nach etwa zwei Jahren kommt die Rostschicht zum Stehen und bildet dann einen natürlichen Schutz gegen weitere Korrosion. Manche Metalle vergrößern ihr Volumen beim Erhitzen in Wasserstoff- Atmosphäre, bedingt durch die stattfindende Gitteraufweitung. Zunächst sah man diese Erscheinung als äußerst schädlich an, da unbedingte Maß‐ haltigkeit - beispielsweise wichtiger Teile von Hydrierapparaturen - sehr wichtig ist. Später erkannte man jedoch, dass sich der vermeintlich negative Effekt mit besonderem Vorteil für Presspassungen nutzen lässt. Verschie‐ dene Metalle dehnen sich unter Wasserstoffeinwirkung unterschiedlich stark aus, so dass beispielsweise zur Fertigung von Rohrverbindungen mit Nut und Feder auf Stoß gearbeitet werden kann, wenn als Feder ein Ring aus einem in Wasserstoffatmosphäre stärker als das Rohrmaterial expandierenden Metall eingelegt wird. Sehr eng verwandt ist das Prinzip „Überlagerung einer schädlichen Erscheinung mit einer anderen“. Wir wollen dazu noch einige Beispiele anfügen. Da hier die Kompensation einer schädlichen Erscheinung durch 148 3 Methoden und Praxisempfehlungen <?page no="149"?> Überlagerung mit einer anderen - ebenfalls schädlichen - Erscheinung gemeint ist, hilft als „Eselsbrücke“ für die Wirkungsweise dieses Prinzip die allgemein bekannte Rechenregel: (-) x (-) = (+). Phosphorhaltige wie schwermetallhaltige Abwässer sind - jede Abwas‐ serart für sich - extrem giftig, also sehr schädlich. Für beide Arten von Wässern ist gewöhnlich ein erheblicher spezifischer Reinigungsaufwand erforderlich. Leitet man nun die schwermetallhaltigen Abwässer durch ein Bett von fein verteiltem gelbem Phosphor, so reagieren die Schwer‐ metallionen an der Oberfläche des Phosphors zu unlöslichen, harmlosen Phosphiden, niederwertigen P-Verbindungen und fein verteiltem Metall. Das Verfahren ist beispielsweise zur Rückgewinnung von Kupfer aus Elek‐ troraffinatanlagen geeignet (Horn, Pat. 1978/ 1979). Somit ergäbe sich im Falle der räumlichen Nähe von Phosphorfabriken und Elektroraffinatanlagen die Möglichkeit, die beiden schädlichen Abwäs‐ ser zusammenzuführen, den Niederschlag abzutrennen und die nunmehr harmlosen Wässer abzustoßen. Dieser Fall tritt gewiss nicht häufig auf, dies spricht jedoch nicht gegen den methodischen Wert des Beispiels. Wer sinngemäß ähnliche Fälle findet und analog nutzt, handelt auf jeden Fall besonders effizient. Hinzu kommt, dass jeder konkrete neue Anwendungs‐ fall auch im schutzrechtlichen Sinne als neu anerkannt werden dürfte. Die Existenz einer allgemeinen methodischen Arbeitsempfehlung spricht durchaus nicht gegen die Schutzfähigkeit eines erstmals vorgeschlagenen konkreten Mittels bzw. gegen die Schaffung eines jeweils neuen Mittel- Zweck-Zusammenhanges. Komplex-Mineraldüngemittel werden gewöhnlich unter Verwendung von Kaliumchlorid („Kali“) hergestellt. Solche Produktionsanlagen lassen sich nicht staubfrei betreiben. Allmählich lagert sich Fertiggutstaub, aber auch Kalistaub auf den Stahlträgern des Produktions- oder Lagergebäudes ab. Diese Stäube sind hygroskopisch. Die Folge ist ein ganz erheblicher Angriff auf die Stahlkonstruktion („narbige Chloridkorrosion“). Gleichzei‐ tig hat die unerwünschte Chloridbelastung aber auch ihre positive Seite: Sie verhindert weitgehend die mehr noch als die grubig-narbige Chloridkorrosion gefürchtete Spannungsrisskorrosion, indem sie die Passivierung der Kernflächen aufhebt (Rädecker u. Graefen 1956). Wir haben hier das Musterbild der Überlagerung einer schädlichen Erscheinung mit einer anderen schädlichen Erscheinung vor uns. 149 3.4 Ausgewählte einfache Lösungsstrategien <?page no="150"?> Noch direkter gilt das Prinzip für die Lärmbekämpfung mit Hilfe von Lärm. Phasenverschobene Schallwellen der zu bekämpfenden Frequenzen werden zum - wenigstens teilweisen - Löschen des Lärms eingesetzt. Bereits vor Jahrzehnten wurden dazu Versuche in diversen Anlagen durch‐ geführt. So konnte im Bereich der besonders unangenehmen tiefen Töne der Schallpegel in einem englischen Kraftwerk versuchsweise um immerhin 13 dB reduziert werden. Später wurde der Gedanke wieder aufgegriffen, und zwar mit dem Ziel, Straßenlärm im Wohnbereich zu neutralisieren. So könne, gab die Deutsche Bundesstiftung Umweltschutz an, durch ein geöffnetes Fenster eindringender Straßenlärm gleichsam „auf Knopfdruck“ ausgeschaltet werden. Die Sache ist leider nicht gerade einfach: Mikrofone müssen zunächst einmal die störenden Geräusche aufnehmen; ein Computer muss dann die Tonsignale berechnen und sie unverzüglich an entsprechend gerichtete Lautsprecher zwecks Ausstrahlung der Gegengeräusche senden (Ärztezeitung 2006, Nr. 203). In methodischer Hinsicht hat das Prinzip universelle Bedeutung. Es fordert den Kreativen dazu auf, immer zu prüfen, wozu und unter welchen Umstän‐ den etwas vermeintlich Negatives vielleicht gut, geeignet, von Nutzen sein könnte. Selbst die etwas banal klingende Lebensweisheit „Man weiß nie, wozu es gut ist“ - als Aufmunterung, wenn etwas beim ersten Hinsehen Negatives passiert -, hat durchaus ihre Berechtigung. Arbeitslosigkeit ist ohne Zweifel schlimm, nur eröffnet sie eben auch die Chance, endlich einmal etwas ganz anderes als bisher zu versuchen und damit vielleicht sogar Erfolg zu haben. In unmittelbar methodischer Hinsicht charakterisiert das Prinzip den direkten Nutzen des während der Systemanalyse herauszufindenden negativen technischen Effekts, der ja der eigentliche Anlass für unsere schöpferischen Bemühungen ist. Je negativer der Effekt und je klarer seine Beschreibung - einschließlich der 150 3 Methoden und Praxisempfehlungen <?page no="151"?> 2 Die Stimulation durch ein Negativerlebnis kann unter Umständen wirksamer sein als die Stimulation durch ein Positiverlebnis. Ab 1969 gab die Betriebssektion der KDT unseres Werkes (KDT = Kammer der Technik, DDR-Pendant zum VDI) eine wissenschaftlich-technische Zeitschrift mit dem Titel „Chemisch-Technische Umschau“ heraus. Ich wurde zum verantwortlichen Redakteur bestellt; die Arbeit war ehrenamtlich. Alle Beiträge mussten vor ihrer Veröffentlichung genehmigt werden. Der Genehmigungsantrag lief über die Fachdirektoren. Die letzte Station war das Büro des Generaldirektors. Dort saß ein Sicherheitsbeauftragter (nicht etwa für technische Sicherheit zuständig! ), der die Angewohnheit hatte, im Zweifel „Dos is nisch unpropplematisch“ zu murmeln. Dann wurde es eben nichts mit einer Veröffent‐ lichung. So erging es mir auch 1982 mit meinem Beitrag „Erfinden aber wie“? , den ich als erste erfindungsmethodische Publikation unserer Zeitschrift vorgesehen hatte. Ich konnte spöttische Bemerkungen nicht immer unterdrücken und galt deshalb als ideologisch nicht ganz koscher. Da ich das wusste, ahnte ich, woher der Wind weht. Ich sah aber - vielleicht gerade deshalb - absolut nicht ein, warum mein Artikel nicht erscheinen sollte. Also schrieb ich an Prof. Werner Gilde, den berühmten Direktor des Zentralinstituts für Schweißtechnik Halle. Er antwortete sehr freundlich und schrieb mir, er könne beim besten Willen nichts „Gefährliches“ in meinem Artikel entdecken, nur sei er für eine Zeitschriftenpublikation viel zu lang. Ich solle doch noch 100 Seiten dazu schreiben und ein Buch daraus machen. Das tat ich; so entstand mein erstes Buch, die „Erfinderfibel“ (Zobel 1985), inzwischen gefolgt von weiteren (Zobel 1991, 2009, 2016, 2018). Der Auslöser war negativer Art, das Ergebnis - für mich, hoffentlich auch für meine Leser - positiv („Provokationseffekt“). physikalischen Ursachen der Störung -, desto größer sind unsere Chancen für eine hochwertige erfinderische Lösung. 2 3.4.7 Die nicht perfekte Lösung Nicht wenige Menschen haben einen gewissen, manchmal auch übertrieben ausgeprägten Hang zur Perfektion. Dies kann unsere tägliche Arbeit ebenso wie unser Privatleben betreffen. Die Folge dieses Perfektionsstrebens ist manchmal, dass Aufwand und Nutzen schließlich in keinem vernünftigen Verhältnis mehr zueinanderstehen. In der Technik kann überzogener Perfektionismus - mindestens in ökono‐ mischer Hinsicht - bedenklich sein. Rein methodisch kommt ein wichtiger Gesichtspunkt hinzu, auf den bereits Altschuller hingewiesen hat: Schwierig oder gar unlösbar erscheinende Aufgaben sind meist nicht mehr schwierig, wenn wir auf die perfekte, absolut vollständige Lösung verzichten. Dieses Prinzip missfällt natürlich den Perfektionisten. Tatsächlich muss wohl jeder erst einmal lernen, dass technische Konsequenz nicht unter jeglichen Bedingungen heißt, alles glänzend, universell brauchbar und völlig perfekt machen zu müssen. 151 3.4 Ausgewählte einfache Lösungsstrategien <?page no="152"?> Recht typische Beispiele für unangemessenen Perfektionismus steuern bestimmte Autokonzerne bei. Hier toben sich die - zweifellos hoch be‐ fähigten - Ingenieure regelrecht aus und „beglücken“ die Kunden mit komplizierten, nicht unbedingt bedienfreundlichen Modellen. Diese können buchstäblich alles, obwohl für etliche der ohnehin allzu zahlreichen Funk‐ tionen kein wirklicher Bedarf besteht. Hinzu kommt, dass diese Funktionen keineswegs in technisch einfacher Weise umgesetzt sind, sondern eines erheblichen Antriebs-, Steuerungs- und Regelungsaufwandes bedürfen. So verwundert es nicht, wenn die meisten Pannen derart überzüchteter Modelle auf die Elektronik entfallen. „Nicht vollständige Lösung“ heißt im methodischen Sinne: Genügt das Ergebnis den zuvor exakt definierten Anforderungen der Aufgabe, oder sind für einen Übergangszeitraum Sofortlösungen gefragt, so ist die Anwendung des Prinzips Nr. 16 (Tab. 4) geraten. Damit keine Irrtümer entstehen: Pfusch ist hier ganz und gar nicht gemeint, sondern vielmehr situationsgerechtes, angemessenes Handeln. Das Prinzip ist dann zu empfehlen, wenn die angestrebte hundertprozentige Lösung mit hoher Wahrscheinlichkeit sehr teuer oder sehr umständlich ausfallen würde. In manchen Fällen ist es dann zweckmäßig, eine andere Arbeitsrichtung zu wählen. Zuvor jedoch ist klarzustellen, ob eventuell nicht die vollständige, sondern eine (beispielsweise) nur etwa 80%-ige Lösung des Problems angestrebt werden sollte. Abbildung 15 zeigt, dass bereits eine nur etwa fünfzigprozentige Lösung manchmal zur Erfüllung der Anforderungen genügen kann: In Funktion überzeugt „Der Monarsch“ (so die Original-Bildunterschrift) sein jubelndes Volk durchaus. Dass er in Unterhosen dasteht, ist für sein charis‐ matisches Funktionieren, weil nicht sichtbar, unwichtig. Der Leibdiener kann im Hintergrund wirken und in aller Ruhe die vorerst nicht benötigte königliche Hose bügeln. Abb.15 illustriert somit die einfache Regel „Nicht so gut wie möglich, sondern so gut wie nötig“. Da dieses einleuchtende Prinzip selten durchgängig beachtet wird, ent‐ wickelt sich fast jedes Technische System, ausgehend von der Stufe der Primitivlösung, über allerlei Zwischenstufen bis hin zur überkomplizierten Lösung. Unser Ziel sollte aber stets, wenn möglich ohne Umwege, die raffiniert einfache Verfahrensweise sein. Zum Erreichen dieses Zieles kann das Prinzip „Nicht vollständige Lösung“ nützliche Varianten liefern, selbst‐ 152 3 Methoden und Praxisempfehlungen <?page no="153"?> verständlich nur an den Stellen oder in den Stufen eines komplexen Systems, die eine solche Vorgehensweise erlauben. Abb. 15 Wichtiges Prinzip für den Kreativen: Nicht so gut wie möglich, son‐ dern so gut wie nötig! Lengren (1980, S. 318) zeigt uns einen Monarchen in Unterhosen, der dennoch in vollem Maße „funktioniert“ (d. h. überzeugend repräsentiert), weil er im Sichtfeld seiner Unter‐ tanen einen durchaus königlichen Eindruck macht. Was noch an - eventuell später - wünschenswerten Funktionen fehlt, wird vom treu sorgenden Diener im Hintergrund in aller Ruhe vorbereitet. Es geht hier keinesfalls um die Verteidigung von Pfusch, sondern um die Aufforderung, zu prüfen, ob eine Lösung auch in den weniger wichtigen Bereichen unbedingt immer perfekt (hier: optisch perfekt) sein muss. Wird beispielsweise die vollständige Abscheidung feiner und feinster Stäube aus einem Gasstrom angestrebt, so werden dazu gewöhnlich Schlauchfil‐ 153 3.4 Ausgewählte einfache Lösungsstrategien <?page no="154"?> terbatterien mit zyklischer Abklopfung bzw. Jet-Rückspülung eingesetzt. Auch elektrostatisch arbeitende Filter sind allgemein im Gebrauch. Beide Systeme sind teuer und nicht völlig betriebssicher. Wegen der ungünstigen Fließeigenschaften abgeschiedener Feinstäube (d. h. wegen der so genann‐ ten Brückenbildung) „versacken“ die Filter häufig. Filtersäcke können reißen, Sprühdrähte über Materialbrücken kurzgeschlossen werden. Deshalb ist die Verfügbarkeit solcher Anlagen nur bei kontinuierlicher, sorgfältiger und qualifizierter Wartung gewährleistet. Im Falle von Betriebsstörungen geht das Gas völlig ungereinigt über Dach. Hier bietet sich, insbesondere für Entwicklungsländer, eine nicht vollständige Lösung als vorläufiger Ausweg an. Fliehkraftabscheider (Zyklone bzw. Drehströmungsentstauber) haben zwar nur einen Entstaubungsgrad von 92 bzw. 95 %, sind aber sehr betriebssi‐ cher. Auch Kombinationen können sinnvoll sein: Zyklonbatterien als sichere Vorabscheider, Schlauchfilter als nachgeschaltete Feinreinigungsanlagen. Deren zeitweiliges Versagen beeinträchtigt zwar den Entstaubungsgrad, kann aber kurzzeitig toleriert werden, sofern es sich um nichttoxische bzw. nicht lungengängige Stäube handelt. So genannte „thermische“ Phosphorsäure wird durch Verbrennen gel‐ ben Phosphors und nachfolgende Absorption des Phosphorsäureanhyd‐ rids in umlaufender Phosphorsäure höherer Konzentration erzeugt. Der Konzentrationsausgleich erfolgt durch Wasserzugabe; das Produkt wird kontinuierlich abgezweigt. Anlagen dieser Art erfordern eine sorgfältige Abgasreinigung, da Phosphorsäureanhydrid in Kontakt mit Wasser bzw. Säure schwer abscheidbare Phosphorsäurenebel bildet. Gebräuchlich für die Gasreinigung sind Elektrofilter-Anlagen und / oder Venturi-Systeme. Auch so genannte Demister (Nebelabscheider aus Polypropylen-Gestrickpa‐ ckungen) sind schon vorgeschlagen worden, indes lassen sich damit nur gröbere bis mittlere Tröpfchen abscheiden. Feine bis feinste Tröpfchen sowie Nebelteilchen fliegen mit dem Gasstrom unbeeinflusst durch das Polypropylen-Gestrick. Wir fanden nun, dass ein zweistufiges Demistersystem das Problem zwar nicht ganz hundertprozentig, dafür aber besonders einfach zu lösen gestattet. Die erste - nicht sehr starke - Gestrick-Packung, die mit hoher Geschwindigkeit durchströmt wird, scheidet primär nur die gröbsten Tröpf‐ chen ab, erzeugt jedoch durch intermediäre Geschwindigkeitsveränderung, Umlenkung und Prall-Effekte aus mittleren bis kleinen Partikeln sekundär 154 3 Methoden und Praxisempfehlungen <?page no="155"?> gröbere Partikel, die an der Abströmseite vom Gasstrom mitgerissen wer‐ den. Diese sekundär erzeugten gröberen Teilchen lassen sich dann in einem nachgeschalteten zweiten Demister stärkerer Packung, der mit geringerer Geschwindigkeit als der erste durchströmt wird, vorteilhaft abscheiden (Kursawe et al., Pat. 1983/ 1985). Auch das bewusste Weglassen einer Funktion fällt im weiteren Sinne unter dieses Prinzip. Der EPSON-Drucker wurde bekanntlich ein überzeugender Markterfolg. Hier war eine erfinderische Entscheidung gefällt worden, die eine zunächst für unerlässlich gehaltene Funktion vollständig eliminierte: Durchschläge erzeugen zu können (Koller 1999, S. 76). Methodisch gesehen wäre die früher praktizierte Arbeitsweise mit Durchschlägen als perfekt, die neue Arbeitsweise als unvollständig zu bezeichnen. Das Beispiel zeigt zudem, wie sich die Vorstellungen zu einem Idealen System im Laufe der technischen Evolution verschieben können: Heute würde niemand auf die Idee kommen, einen modernen Drucker für unvollkommen oder gar mangelhaft zu halten. 3.4.8 Makrosysteme und Mikrosysteme Zu den Tendenzen der technischen Entwicklung gehört zweifellos der häufig beobachtete Übergang vom Makrozum Mikrosystem. Altschuller (1973, S. 104) verstand darunter im Sinne einer erfinderischen Empfehlung, dass „grobe“ Systeme in „feinere“ Systeme überführt werden sollten, z. B. mechanische in elektrische oder magnetische, solche wiederum in optische, elektronische usw. In weiteren Publikationen (Altschuller 1983, 1984) wird die an hochwertigen Erfindungen zu beobachtende generelle Tendenz be‐ tont, von makroskopischen Systemen zu solchen auf molekularer Ebene überzugehen. Altschuller spricht nunmehr regelrecht von „Makroebene und Mikroebene der Anwendung der Verfahren“ und umreißt damit treffend die umfassende und übergreifende Bedeutung dieser Betrachtungsweise. Er behandelt vier Möglichkeiten: ■ Das Makroobjekt bleibt Makroobjekt (Symbol: M-M). Das technische Problem wird anders, aber ebenfalls auf Makroebene gelöst. ■ Übergang vom Makroobjekt zum Mikroobjekt (M-m). Bespiel: Neuarti‐ ger Bremsring aus Piezokeramik; Stromquelle: Hochfrequenzgenerator. Die alte mechanische Bremse arbeitete mit Hilfe von Backen, Hebeln, 155 3.4 Ausgewählte einfache Lösungsstrategien <?page no="156"?> Federn und Gestängen; mit dem Übergang in den molekularen Bereich, durch Verändern des Kristallgitters, ist die Mikroebene erreicht. ■ Übergang vom Mikroobjekt zum Mikroobjekt (m-m). Das Problem wurde zuvor bereits auf der Mikroebene gelöst; es wird nun zwar technisch anders, aber ebenfalls auf der Mikroebene gelöst. ■ Übergang vom Mikroobjekt zum Makroobjekt (m-M). Altschuller schreibt dazu ganz kategorisch: „Derartige Erfindungen gibt es nicht. Der Übergang m-M widerspricht den Entwicklungstendenzen der Technik, weil er eine „Vergröberung“ des technischen Systems verlangt“ (Altschuller 1984, S. 106). Die Mikro-Makro-Betrachtungsweise liefert also prinzipielle Angaben zur Funktionalebene. Zu beachten ist jedoch, dass auch ein vordergründig rein mechanisch erscheinendes System bei schärferem Betrachten teilweise oder ganz unter Mikroaspekten funktionieren kann. Nur ein nach diesen Gesichtspunkten analysiertes System ist bezüglich eventuell möglicher Ver‐ besserungen genau einzuschätzen. Ist im Zusammenhang mit der Funktio‐ nalebene erkennbar, dass die Mängel prinzipieller Art sind, so ist Kreativität gefragt. Kompromisse helfen dann nicht mehr weiter, es muss erfunden werden. Hinweise zur empfehlenswerten Arbeitsrichtung finden sich nach systematischer Durchsicht der vier möglichen Varianten: M-M, M-m, m-m (und, entgegen der Altschullerschen Auffassung, in - allerdings seltenen - Fällen auch: m-M). Betrachten wir nun Altschullers Behauptung, m-M-Übergänge gebe es generell nicht. Derart absolut formuliert ist diese Behauptung nach mei‐ ner Auffassung irreführend. Neue Bedingungen und veränderte Umstände können sehr wohl dazu führen, dass auch der Übergang m-M technisch progressive Lösungen erlaubt. Nehmen wir beispielsweise die Waschmittel. Zweifellos handelt es sich um höchst wirksame Substanzgemische, die auf der molekularen Ebene („m“) arbeiten. Allerdings nahmen vor etwa fünfzig Jahren die im Dauer‐ gebrauch eintretenden Umweltschäden zu. Vor allem die Waschmittelpho‐ sphate waren als Quellen der Eutrophierung in Verruf geraten: Gewässer‐ überdüngung führte zu extrem gesteigertem Algenwachstum, gefolgt vom überproportionalen Absterben der Biomasse. Die dadurch ausgelöste er‐ höhte Sauerstoffzehrung führte schließlich zum „Umkippen“ der Gewässer. Als Ausweg wurden die phosphatarmen bzw. phosphatfreien Waschmittel propagiert. Sie lösten das Problem jedoch keineswegs: Phosphat ist bezüg‐ 156 3 Methoden und Praxisempfehlungen <?page no="157"?> lich des Algenwachstums ein Minimumfaktor, d. h., erst beim Unterschreiten der Minimalschwelle tritt die erhoffte Wirkung ein. Bis zu diesem Punkt geschieht nichts. Praktisch müssten 90 % der heute insgesamt eingebrachten löslichen Phosphate den Seen und langsam fließenden Gewässern fernge‐ halten werden, um diese Grenze zu erreichen. Nur etwa 30 % der Gesamt‐ fracht stammten aber aus den Haushaltswasch- und Reinigungsmitteln. Der Rest verteilt sich zu etwa gleichen Teilen auf die Folgen der Überdüngung und auf die abgebauten oder auch nicht abgebauten Bestandteile der Fäka‐ lien. Dieser Rest reicht auch bei totalem Verzicht auf Waschmittelphosphate vollkommen aus, das unerwünschte Algenwachstum exakt auf dem heuti‐ gen Niveau zu halten. Die Lösung des Problems kann nicht an den Naturge‐ setzen vorbeigehen (Phosphat ist Minimumfaktor! ). Folglich führt nur eine weitgehende Gesamtphosphat-Elimination zum Ziel. Erreichen lässt sich dies mit Hilfe der dritten Reinigungsstufe (Phosphat-Fällungsstufe, die den üblichen mechanischen und biologischen Reinigungsstufen der Kläranlagen nachzuschalten ist). Ausgefällt wird damit aber nur der aus den Fäkalien und den Waschmitteln stammende Anteil der Gesamt-Phosphatfracht. Das restliche - aus der Überdüngung der Felder sowie aus der Gülle stammende - Drittel muss durch vernünftige Dosierung und der Vegetationsperiode an‐ gepasstes Düngen weitgehend reduziert werden. Dann erst ist das Problem gelöst. Im Rahmen dieses Gesamtkonzeptes ist nun das phosphatfreie Waschen an sich durchaus ein lohnendes Ziel, sei es auch nur, um die nicht gerade billige dritte Reinigungsstufe zu entlasten und/ oder die Phosphat-Ressour‐ cen zu schonen. Da die angebotenen Alternativwaschmittel aber bisher noch immer mehr oder minder erhebliche (andere) Nachteile aufweisen, müsste das Problem - sofern sich keine besser geeigneten Substitute finden - radikal gelöst werden. Das heißt in unserem Falle: vollständiger Verzicht auf jegliches Waschmittel. Da nun die modernen phosphathaltigen Waschmittel bereits auf molekularer Ebene arbeiteten und die bisherigen Alternativ- Waschmittel mit all ihren Nachteilen ebenfalls dieser Ebene entsprechen (Übergang m-m), kommt für die Lösung des Problems anscheinend nur der von Altschuller für prinzipiell ungangbar erklärte Weg in Frage: der Übergang m-M. Tatsächlich wurden und werden immer wieder Versuche gemacht, z. B. mit Hilfe von Ultraschall-Apparaten in Kombination mit einem Luftstrom unter Einsatz klaren Wassers zu waschen. Ultraschall und Luftbläschen arbeiten zwar im Beinahe-Mikrobereich, aber eben nicht im 157 3.4 Ausgewählte einfache Lösungsstrategien <?page no="158"?> molekularen Mikrobereich. Deshalb kann im Falle einer solchen Lösung durchaus vom Übergang m-M gesprochen werden. Die in der Praxis noch immer vorhandenen Schwächen und Mängel dieser möglichen Zukunfts- Radikaltechnologie sind in methodischer Hinsicht kein Gegenargument. Jedenfalls wäre im Falle der aus oben erläuterten Gründen erstrebenswerten Lösung des Problems mit Hilfe der Ultraschall-Luftbläschen-Technologie ein Idealbeispiel des Übergangs m-M gegeben. Von Altschuller wurden, wie gesagt, die Begriffe „Mikroebene“ und „Makroebene“ zur Definition der Funktionalebene benutzt. Ich meine, dass ergänzend dazu auch die wörtliche Auslegung der Begriffe für praktische Zwecke nützlich sein kann. Allerdings ist ein im Labormaßstab angewandtes System allein deshalb noch kein Mikrosystem, und ein in der Technik angewandtes System im physikalischen Sinne nicht automatisch ein Mak‐ rosystem. Hinzu kommt aus schutzrechtlicher Sicht, dass reine Maßstabs‐ übertragungen als solche nicht patentierbar sind, und aus dieser strengen Sicht somit eigentlich nicht als kreative Leistungen anerkannt werden. Dennoch zeigt die praktische Erfahrung, dass sinngemäße Übertragungen keineswegs selbstverständlich, wohl aber häufig nützlich - in besonderen Fällen sogar schutzwürdig - sind. Sehen wir deshalb für unseren rein praktischen Zweck einmal vom physikalischen Inhalt der Begriffe „Makrosystem“ und „Mikrosystem“ ab und betrachten Laboratoriumslösungen ausnahmsweise als Mikrosysteme, analog arbeitende technische Systeme hingegen als Makrosysteme. Wir beobachten folgendes Phänomen: Techniken, apparative Lösungen und Verfahren, die im Laboratorium vollkommen geläufig sind, werden noch nicht einmal im gleichen Industriezweig automatisch in die Großtechnik übertragen, auch wenn dies von besonderem Vorteil wäre (! ). Der Fall, dass die Übertragung nicht zweckmäßig oder nicht möglich ist, sei ebenso ausgeklammert, wie der Fall, dass die Analogie nur in weit entfernten Industriezweigen nützlich erscheint. Betrachtet werden soll der Fall, dass die im gleichen Industriezweig - oft in enger räumlicher Nachbarschaft zum Labor - tätigen Produktionsspezialisten viel zu wenig von den gängigen Laboratoriumstechniken wissen und sich deshalb kaum Gedanken zur möglichen Übertragbarkeit machen. Selbstverständlich gilt dies auch in umgekehrter Richtung. Die jeweils zu isolierte Denkweise der Labor- und Produktionsspezialis‐ ten, welche oft sogar die gleiche Fachausbildung besitzen, ist demnach als praktisch sofort greifbare Leistungsreserve zu betrachten. Mit Kenntnislü‐ 158 3 Methoden und Praxisempfehlungen <?page no="159"?> cken allein lässt sich das Phänomen nicht erklären. Weit eher scheint es sich um Übertragungsblockaden zu handeln. Betrachten wir ein eigenes Beispiel, das die Nicht-Übertragung vorlie‐ gender Kenntnisse aus dem technischen Maßstab in den Laboratoriums‐ bereich betrifft. Pentanatriumtriphosphat (Na 5 P 3 O 10 ) war über Jahrzehnte die wichtigste anorganische Komponente moderner Haushaltswasch- und Reinigungsmittel. Die Verbindung existiert in einer Tieftemperaturmodi‐ fikation („Phase II“) und einer Hochtemperaturmodifikation („Phase l“). Beide unterscheiden sich vor allem in ihrer Hydratationsgeschwindigkeit: Phase-l-haltiges Produkt hydratisiert schneller als reines Phase-II-Produkt. Bei der Hydratation wird Wärme frei. Ein aus Wasser oder wässrigen Lösungen bzw. aus tensidhaltigen Suspensionen und Na 5 P 3 0 10 unter Rühren bereiteter Brei („Slurry“) erhitzt sich demgemäß schneller, wenn das einge‐ setzte Produkt Phase I enthält. Jedoch ist nicht nur der Phase-I-Gehalt, sondem auch das Kornspektrum für die Hydratationsgeschwindigkeit (und damit für die Wärmeentwicklung sowie die Viskositätseinstellung im Slurry) von Bedeutung. Die Viskosi‐ tätseinstellung hängt insofern mit der Wärmeentwicklung zusammen, als das Hydratationsprodukt des Na 5 P 3 O 10 , das Hexahydrat, entscheidend die Slurry-Viskosität beeinflusst. Will man bei Viskositätstests zur Optimierung der Slurry-Stufe des Heißsprühverfahrens in der Waschmittelfabrikation reproduzierbare Werte erhalten, so muss man Produkte stets gleicher Korn‐ spektren - in der Praxis sind dies oft ausgesiebte Materialien - anwenden (Merkenich 1965, 91, S. 319). Merkwürdigerweise hat nun diese im industriellen Maßstab gewonnene, - in einer renommierten Fachzeitschrift von einem renommierten Fach‐ mann publizierte - Erkenntnis durchaus nicht automatisch dazu geführt, den in den Betriebslaboratorien der Na 5 P 3 O 10 - sowie der Waschmittelpro‐ duzenten als Mittel zur Bestimmung des Phase-I-Gehaltes im Pentanatri‐ umtriphosphat allgemein eingesetzten „Temperature Rise Test“ (TRT) in seiner Aussagekraft anzuzweifeln. Dieser Test beruht auf der Messung der Hydratationswärme von Na 5 P 3 O 10 in einer Mischung aus Glycerol und Wasser. Nach den oben dargelegten Befunden hätte auch bei dieser Analysemethode durchaus ein Zusammenhang zwischen Viskosität, Hydra‐ tationsgeschwindigkeit und Kornspektrum gesehen werden müssen. Dies geschah aber offensichtlich nicht. Die Aussagekraft des Original-TRT (Mc Gilvery 1953) wurde zunächst von niemandem angezweifelt, obwohl diese Vorschrift keinerlei Bemerkungen zur Körnung des zu prüfenden Materials 159 3.4 Ausgewählte einfache Lösungsstrategien <?page no="160"?> 3 Mein alter Analytik-Professor R. Geyer lehrte an der TH Merseburg unverdrossen: „Es ist alles nur eine Frage des Dispersitätsgrades.“ enthält und demzufolge beliebig feine bis gröbere Materialien routinemäßig untersucht wurden. Wir prüften nun zur Klärung des Sachverhaltes mit Hilfe des TRT extrem feinkörniges Na 5 P 3 O 10 (< 0,06 mm), das sich im röntgenographischen Paralleltest als reines Phase-II-Produkt erwiesen hatte. Es zeigte sich, dass der TRT stets mehr oder minder hohe Phase-I-Gehalte vortäuscht. Die Erklärung ist einfach: Feinteiliges Material hydratisiert bei gleichem Phase-I-Gehalt schneller als gröberes Material und liefert dementsprechend pro Zeiteinheit mehr Hydratationswärme. Selbige ist aber der (somit als z. T. subjektiv entlarvte) Maßstab für den Phase-I-Gehalt. Dies bedeutet, dass die Methode bisher immer dann Fehlmessungen geliefert hatte, wenn sehr feinteiliges Material geprüft wurde. Wir unterdrückten die Fehlerquelle durch Heraufsetzen des Glycerol-Wasser-Verhältnisses und änderten die Standardvorschrift entsprechend (Seiffarth u. Zobel 1968). Die Konkurrenz nahm - auch das ist typisch - keinerlei Notiz davon und erfreute ihre Kundschaft noch jahrzehntelang mit unverändert krassen Fehlmessungen. Selbstverständlich käme auch das Absieben und Verwerfen des Feinan‐ teils vor Ausführung der Analyse in Frage. Indes hätte diese Verfahrensweise für den Fall objektiver Schwankungen des Phase I : Phase II-Verhältnisses zwischen den Kornfraktionen einen recht schwerwiegenden Fehler anderer Art provoziert. Das Beispiel ist vor allem deshalb typisch, weil an sich alle notwendigen Kenntnisse für die Übertragung vorlagen, und auch die Motivation im vollen Maße gegeben war. Da die Viskositätstests für die Produktionsansätze (Merkenich 1965, 91, S. 319) sicherlich ebenfalls im Laboratorium ausgeführt wurden, wäre die Übertragung der so gewonnenen Erkenntnisse auf den Hydratationstest mehr als nahe liegend gewesen. Der TRT ist ein ganz speziell in den Betriebslaboratorien der Phosphatwie auch der Waschmit‐ telindustrie angewandter Test. Produktionsstätte und Laboratorium befin‐ den sich in unmittelbarer Nähe zueinander, die Fachleute haben die gleiche Ausbildung und sollten - ein manierliches Betriebsklima vorausgesetzt - die gleichen Interessen haben. Hinzu kommt, dass hier noch nicht einmal ein komplizierter Sachverhalt zur Debatte steht. Feinteilige Produkte sind eben reaktionsfreudiger (hier: schneller hydratisierbar) als gröbere Materialien; das gehört zum Grundwissen. 3 160 3 Methoden und Praxisempfehlungen <?page no="161"?> Kommen wir zur apparativen Seite der Sache. Ich erwähnte bereits, dass reine Maßstabsübertragungen an sich nicht schutzfähig sind. Allerdings finden sich in der Patentliteratur immer wieder Beispiele, welche den unmit‐ telbaren Bezug zu mehr oder minder geläufigen Mustern erkennen lassen. Wir sehen an den folgenden Beispielen, dass die Grenzen offensichtlich fließend sind. So erscheint uns die Herkunft einer „Belüftungseinrichtung zum Begasen von Flüssigkeiten, insbesondere zum Lufteintrag in Wasser, insbesondere Ab‐ wasser, mit einer Lufteintrittsstelle, dadurch gekennzeichnet, daß über der Lufteintrittsstelle ein Tauchkörper angeordnet ist, der als Füllkörper-Haufwerk aus einzelnen Füllkörper-Elementen ausgebildet ist“ (Bick, Pat. 1983/ 1985) ziemlich klar. Hier hat, wie Abb. 16 zeigt, ganz offensichtlich jener poröse Bimsstein‐ körper Pate gestanden, der zum Erzeugen möglichst kleiner Luftblasen für die Aquarienbelüftung eingesetzt wird. Besonders eindrucksvoll ist der seit einiger Zeit praktizierte Einsatz von Drainageseilen anstelle von Drainagerohren. Drainagerohre können sich, insbesondere bei Beschädigungen, aber auch bei geringfügigen Verlegefeh‐ lern, ungünstigen Falles schon nach kurzer Zeit versetzen. Abb. 16 Analogie zum Luftblasen-Verteiler im Aquarium „Belüftungseinrichtung zum Begasen von Flüssigkeiten, insbesondere zum Lufteintrag in Wasser, insbesondere Abwasser“ (Bick, Pat. 1983/ 1985) 161 3.4 Ausgewählte einfache Lösungsstrategien <?page no="162"?> Dies ist bei Drainage-Seilen nicht zu befürchten. Hinzu kommen beträchtli‐ che Vorteile: Die für die Herstellung des Seils verwendeten Kunststofffasern verrotten nicht, das Verlegen von Seilen ist einfacher als das Verlegen von Rohren, es besteht keine Bruchgefahr, das System kann praktisch nicht ver‐ sanden usw. (Pause 1984). Dem gleichen Prinzip gehorcht offensichtlich ein „Bandförmiges textiles Drainageelement zur vertikalen Wasserzuführung im grabenlosen Einbau“ (Boettcher et al., Pat. 1982/ 1984). Diesen technischen Lösungen liegt gedanklich anscheinend jener Wollfaden zugrunde, mit dem Aquarien- und Blumenfreunde schon lange arbeiten. Bringt man Wollfäden in ein Heberrohr ein, so lässt sich damit Wasser sehr langsam und dosiert aus einem Reservoir ansaugen (Kapillarwirkung der Wollfasern). Dem wenig bemittelten Aquarienfreund, der sich keine Belüftungsmembranpumpe kaufen konnte, wurde früher empfohlen, das ab‐ tropfende Wasser zur Bewegung und damit Belüftung der Wasseroberfläche, besonders aber zur Unterdrückung der Kahmhaut einzusetzen (Heller 1924, S. 18). Eine vergleichbar einfache Vorrichtung dient sicherlich so manchem Leser zum automatischen Bewässern der Zimmerpflanzen während seines Urlaubs. Der Gedanke ist dennoch anscheinend noch immer nicht selbstverständlich. Eine japanische Anmeldung (Otsuka, Pat. 1985/ 1986) zeigt einen einfachen Drainageapparat, der zugleich Filterfunktionen erfüllt. Die Beschreibung lässt offen, ob mit Drainageseilen oder flächigen Gebilden gearbeitet wird. Das Prinzip jedenfalls ist klar erkennbar (Abb. 17). Das Beispiel zeigt nicht nur die sehr engen Beziehungen zwischen „Mikro“- und „Makro“-Technik im vordergründig-wörtlichen Sinne (insbesondere bezüglich des Maßstabes), auch wenn solche Lösungen meist an der Grenze der Schutzfähigkeit liegen. Es zeigt auch die Richtigkeit der von Altschuller postulierten technischen Tendenz: Ein Kapillarsystem entspricht im physi‐ kalischen Sinne der fortschrittlicheren Mikroebene, das alte Drainagerohr hingegen der Makroebene. 162 3 Methoden und Praxisempfehlungen <?page no="163"?> Abb. 17 Liquid drain apparatus (Otsuka,Pat.1985/ 1986) 1 Trübe-Zulauf; 2 Reservoir; 3 Trübe; 4 Drainage- und Filterelement („nonvowen fabric“); 5 Drainagebehälter bzw. -rinne („drain pit“) Kehren wir noch einmal zum oben erläuterten Beispiel der Reaktivität von Phase-II-Tripolyphosphat im Zusammenhang mit dem Dispersitätsgrad zurück. Das Beispiel demonstriert, abgesehen von seinem didaktischen Wert bezüglich der immer wieder zu beobachtenden Nicht-Übertragung von Erfahrungen, zugleich auch die oft krassen Eigenschaftsänderungen, die sich beim Übergang von groben zu feinen bzw. feinsten Materialien und Strukturen fast immer einstellen (M-m im wörtlichen Sinne). Feinteilige - auch: feinst gemahlene - Stoffe verhalten sich oft völlig anders als die gleichen Stoffe in kompaktem Zustand. Dies kann so extreme Ausmaße annehmen, dass - noch vor dem Erreichen des Nano-Bereichs - allein durch die mechanische Zerteilung völlig neue Eigenschaften entstehen, welche an der Ausgangssubstanz noch nicht einmal im Ansatz zu beobachten sind. 163 3.4 Ausgewählte einfache Lösungsstrategien <?page no="164"?> Ein Beispiel dafür ist die Feinstmahlung von Rohphosphat. Gewöhnlich muss Rohphosphat chemisch - mit Säure - aufgeschlossen werden, um Düngemittel daraus herstellen zu können (Ziel: Das unlösliche Phosphat muss pflanzenverfügbar gemacht werden). Wird Rohphosphat jedoch feinst gemahlen, so lässt sich dieser umständliche und aufwändige Prozess ganz einsparen: Feinst gemahlenes Rohphosphat kann direkt als Düngemittel ausgebracht werden. Der Dispersitätsgrad des Rohphosphats ist nach der Mahlung so hoch, dass die von den Wurzeln der Pflanzen ausgeschiedenen schwachen Säuren den Aufschluss „vor Ort“ schaffen. Gröbere Partikel sind hier völlig unlöslich. Das Beispiel hat jedoch mehr methodischen als praktischen Wert: Für die Feinstmahlung werden meist die so genannten Schwingmühlen eingesetzt; ihr Energieverbrauch ist aber extrem hoch, so dass die Energiebilanz im Vergleich zum konventionellen Düngemittel viel zu ungünstig ausfällt. Hinzu kommen die praktischen Probleme beim Umgang mit feinsten Pulvern für einen solchen Zweck. Beides hat dazu geführt, dass das gründlich erforschte und im Prinzip funktionierende Verfahren in der Praxis bis heute nicht genutzt wird. Während meines anorganisch-chemischen Praktikums kam ich mit einem weiteren Beispiel in Berührung. Ich hatte das Präparat Calcium-Chromit herzustellen, und zwar durch einen Schmelzprozess. Um das tiefgrüne Schmelzprodukt in eine für die Abgabe beim Assistenten gefälligere Form zu bringen, zerkleinerte ich es nach dem Erkalten in der Reibschale und beobachtete erstaunt, dass die Farbe des Pulvers immer heller wurde, je länger ich mit dem Pistill rieb. Zum Schluss kam ein fast weißes, nur noch schwach hellgrünliches Pulver heraus. Analog war die Erfahrung, die ich später in der Phosphatindustrie machte. Die Qualität von Natriumtripolyphosphat wurde von uns auch über den Weißgrad des Produktes bestimmt. Diese Bestimmung wird mit Hilfe eines Leukometers an einer im Probebecher glatt gestrichenen Probe gemahlenen Materials vorgenommen. Man bestrahlt die Probe mit weißem Licht; der reflektierte Anteil wird gemessen. Der „Weißgrad“ ist dann der Prozentsatz reflektierten weißen Lichtes (auffallendes Licht: 100 %; reflektierter Anteil = Weißgrad in %). Wir wunderten uns nun, dass trotz chemisch einwandfreier Qualität und sauberer Arbeitsweise der Weißgrad des Produktes nicht immer den Anfor‐ derungen entsprach. Schließlich kamen wir darauf, dass die Körnung des Produktes die Ursache sein könnte. Bezüglich des Kornspektrums war das Produkt nicht normiert; so kam es vor, dass bei kleineren, nicht bemerkten 164 3 Methoden und Praxisempfehlungen <?page no="165"?> Störungen der Mahlanlage auch einmal etwas gröberes Produkt anfiel. Dies waren dann die Chargen mit dem zu geringen Weißgrad. Im Nachhinein ist ja bekanntlich immer alles klar: Die Grobanteile des Produktes reflek‐ tieren das einfallende Licht nicht nur direkt in Richtung des Detektors, sondern streuen es z. T. auch seitlich. Die Messung ergab dann, verglichen mit einheitlich feinkörnigen Proben, zu geringe Weißgrade. Wir halfen uns schließlich damit, die Proben grundsätzlich abzusieben, und nur die Feinfraktion zu untersuchen. Natürlich kann man so nur verfahren, wenn man sich auf andere Weise überzeugt hat, dass das Material wirklich sauber ist. Ansonsten bestünde die Gefahr, dass man - analog zum beschriebenen Calcium-Chromit-Beispiel - sich bezüglich der Qualität etwas vormacht, eben weil feinstes Produkt automatisch weißer aussieht als gröberes. Besonders wichtig wird der Dispersitäts-Gesichtspunkt, wenn die Stoffe, welche zur Reaktion gebracht werden sollen, z. T. von inerten Materialien umhüllt sind, oder während der Reaktion oberflächlich desaktiviert werden (und deshalb nicht durchgängig in reaktionsfähigem Zustand vorliegen). Dies war z. B. bei den Uralt-Phosphorschlämmen und phosphorkontaminierten Massen der Fall, welche nach Stilllegung unserer Piesteritzer Phosphorfabrik übrig blieben, und die sachgerecht entsorgt werden mussten. Versucht man die Entgiftung mit dem besonders wirksamen Kupfersulfat zwecks Umsetzung zum unlöslichen, ungiftigen Kupferphosphid, so reagieren die Komponenten nur oberflächlich miteinander. Nicht umgesetzter Phosphor wird durch das gebildete Kupferphosphid eingehüllt; die Entgiftung verläuft buchstäblich nur oberflächlich. Nach Trocknung und mechanischer Beanspruchung beginnen solche Massen spontan zu brennen. Deshalb hat die Umsetzung des Phosphors mit der wässrigen Kupfersulfatlösung unter gleichzeitiger Feinstmahlung der zu entgiftenden Massen in einer Kugelmühle zu erfolgen, wobei 80-100 % der Feststoffkomponenten auf Korngrößen unterhalb 40 μm gebracht werden müssen. Dabei werden immer wieder freie Elementarphosphor-Oberflächen gebildet. Diese reagieren mit überschüssigem Kupfersulfat, so dass nur durch diese aktivierende Feinstmahlung die gewünschte Totalentgiftung erreicht wird (Siems, Pat. 1994/ 1996). Ein wegen seiner besonderen Bedeutung heute fast schon eigenständiges Forschungsgebiet betrifft die Feinstäube. Weitere drei Dimensionen unterhalb der „Norm-Maße“ des Feinstaubes bewegen wir uns dann im so genannten Nano-Bereich (1 mm = 1000 nm; 1 nm = 10 -9 m), der noch einmal einen erheblichen Qualitätssprung bringt. Die Nanotechnik beginnt sich zu einem eigenständigen Gebiet zu entwickeln. 165 3.4 Ausgewählte einfache Lösungsstrategien <?page no="166"?> Nanoteilchen sind so klein, dass man mit ihnen Funktionen verwirklichen kann, an die unter Einsatz gröberer Teilchen gleicher Zusammensetzung nicht zu denken wäre. In gewisser Hinsicht gehört zu diesem Kapitel auch das Gedankengut des AZK-Operators. Die gedankliche Konstruktion des „Operators Abmes‐ sungen, Zeit und Kosten“ („AZK“) wurde von Altschuller (1973) in die Kreativitätslehre eingeführt. Altschuller versteht darunter, dass man sich ein Objekt bzw. einen Vorgang zunächst einmal als sehr klein, dann extrem groß, als einerseits sehr schnell, dann aber außerordentlich langsam, schließlich als extrem teuer, andererseits jedoch fast kostenlos vorstellen sollte, um gedanklich in sonst nicht zugängliche Gebiete vorstoßen zu können. Der aufmerksame Leser wird bemerken, dass sich diese Philosophie nicht mit dem Suchsektor in Richtung Ideales Endresultat (Abb. 3) verträgt. Ande‐ rerseits gibt es jedoch Situationen, welche dieses mit dem AZK-Operator verbundene Minimum-Maximum-Denken geraten erscheinen lassen. So gibt es physikalische Erscheinungen, die dermaßen langsam verlaufen, dass sie den meisten Menschen unbekannt bleiben. Beispielsweise ist ge‐ wöhnliches Glas kein Festkörper, sondern eine amorphe Masse, die sich wie eine - wenn auch extrem zähe - Flüssigkeit verhält. Lange Glasstäbe oder Glasrohre, welche zwischen zwei Auflagepunkten hohl liegen, „fließen“ nach längerer Zeit unter der Einwirkung der Gravitation. Oberflächlich betrachtet, verbiegen sie sich nach unten. Gewöhnliches Fensterglas ist nach vielen Jahren im Bereich des unteren Falzes messbar dicker als im Bereich des oberen Falzes. Eine AZK-Kombination von „Leider kein Geld, dafür aber genügend Zeit“ liefert folgendes didaktische Experiment, das auf dem allge‐ mein bekannten Vergilben holzhaltigen Papiers beruht. Ein Schwarz- Weiß-Foto-Negativ wird an einem zeitweise sonnigen Ort, z. B. der Fensterbank, auf einen Zeitungsrand gelegt und mit einer Glasscheibe beschwert. Nach einigen Wochen ist die positive Kopie fertig. Die auf dem Negativ hellen Partien finden sich auf dem Zeitungsrand als stärker vergilbte Partien, die auf dem Negativ dunkleren Partien erscheinen auf der Kopie entsprechend heller. Das Bild ist zwar scharf, aber eben gelblich-blass, und qualitativ durchaus nicht mit einer professionellen Kopie zu vergleichen. Dafür arbeitet das beschriebene Verfahren prak‐ tisch kostenlos. Aus methodischer Sicht anzumerken ist, dass (parallel 166 3 Methoden und Praxisempfehlungen <?page no="167"?> zum Operator AZK) hier auch das Prinzip „Nicht vollständige Lösung“ zutrifft. Die Kopie ist im Vergleich zu einer brillanten normalen Kopie nicht perfekt, d. h. „nicht vollständig“, jedoch kostenlos. Auf weitere Experimente dieser Art gehe ich detailliert im Kapitel 6.3 ein. Dem Kreativen ist es ziemlich egal, woher seine Anregungen stammen. Der Methodiker hingegen gerät prompt in den Ruf, hinterher erklären zu wollen, was der Kreative - aus methodischer Sicht - „eigentlich“ gedacht oder gemacht hat: „Ich schieße meinen Pfeil in den Baum und male dann eine Zielscheibe drum herum“ (Groß 2001). Zurück zum Operator AZK. Das andere Extrem wird durch Prozesse gekenn‐ zeichnet, die sehr schnell ablaufen müssen, dafür aber auch etwas kosten dürfen. Bleiben wir bei der Fotografie und denken z. B. an Hochgeschwindigkeitsauf‐ nahmen. Auch die Schock-Kühlung zum „Einfrieren“ bestimmter Zustandsfor‐ men fällt in dieses Gebiet. So wird z. B. das so genannte ESG (Einscheiben- Sicherheitsglas für Auto-Seitenscheiben) durch Erhitzen der Glasscheibe über den Erweichungspunkt, gefolgt von schockartigem Abkühlen, hergestellt. Dabei gerät die Glasoberfläche unter Spannung, was dazu führt, dass im Falle von Steinschlag oder ähnlicher Gewalteinwirkung die Scheibe nicht etwa splittert, sondern gefahrlos zerbröselt. Auch bei diesem Beispiel erkennen wir aus methodischer Sicht weitere Zuordnungsmöglichkeiten. Neben dem Operator AZK gelten mit gleicher Berechtigung auch die in Tab. 4 aufgeführten Prinzipien „Schneller Durchgang“ (für den Herstellungsvorgang) sowie „Vorspannung“ (für den Zustand der unbeschädigten Scheibe). Zum Abschluss dieses Kapitels wollen wir uns noch mit einem weiteren Aspekt des Minimum-Maximum-Denkens befassen. Ich möchte es „Kleine Ursache, große Wirkung“ nennen. Die Zahl der Beispiele dazu ist Legion. So fällt die Verunreinigung einer großen Wassermenge durch einen einzigen Öltropfen unter dieses Prinzip. Auch die Wirkung von Spülmitteln ist ver‐ blüffend. Ein Zusatz von wenigen Tropfen genügt, um fettiges Geschirr ein‐ wandfrei abwaschen zu können. Die Wirkung beruht auf der Herabsetzung der Oberflächenspannung des Wassers, kombiniert mit der Dispergierung des Fettes. Als Umkehrvorgang - im Grunde jedoch analog - verläuft der Prozess, wenn ein gewissermaßen systemimmanenter Schaum, wie etwa Bierschaum, unter der Wirkung einer Spurenkomponente zusammenbricht. Das passiert, wenn Biergläser nicht ganz sauber sind, oder wenn man fettige Lippen hat. In einem anderen Falle können nicht ganz saubere Gläser auch 167 3.4 Ausgewählte einfache Lösungsstrategien <?page no="168"?> zu einer erwünschten Wirkung beitragen. Schenkt man Sekt vorsichtig in ein vollkommen sauberes Glas ein, so hört er fast sofort zu perlen auf. Die Kohlensäurebläschen bedürfen offenbar winziger „Kristallisationskeime“, an denen sie sich bilden und bis zum Ablösen vergrößern können. Als Alternative sollen nun nicht etwa schmutzige Gläser empfohlen werden; aber ein etwas fusseliges Geschirrhandtuch, mit dem man die Gläser vor ihrem Einsatz noch einmal auswischt, wirkt bereits Wunder. Aus dem Bereich der Elektronik sei das Dotieren von Silicium-Wafern erwähnt. Es handelt sich hier gleichsam um einen gezielt eingesetzten „positiven Dreckeffekt“: Bereits geringe Spuren des jeweiligen Zusatzes bewirken die Ausbildung der erwünschten Eigenschaft. Ähnlich sieht es bei den typischen Bestandteilen des Eisens aus. Die Eigenschaften der verschiedenen Eisen- und Stahlsorten werden nicht etwa vom Eisen selbst, sondern durch die jeweiligen Minimum-Komponenten (insbesondere Kohlenstoff, Silicium, Phosphor) bestimmt. So bewirken be‐ reits kleine Mengen Phosphors, dass das Eisen spröde wird. Deshalb muss der Phosphor aus dem Roheisen völlig entfernt werden. Positiv hingegen wirkt sich - innerhalb gewisser Grenzen - der Kohlenstoffgehalt aus: Stahl ist deshalb zäh und elastisch, weil er kleine Mengen Kohlenstoffs enthält. Entsprechend ist das technisch fast bedeutungslose Weicheisen frei von Kohlenstoff. Bereits vergleichsweise geringe Differenzen im Kohlenstoffge‐ halt führen zu Produkten völlig unterschiedlicher Eigenschaften: Gusseisen mit 2-4 % C, die elastisch harten und schmiedbaren Eisenstähle mit ≤ 1,7 % C, darunter Werkzeugstähle mit 0,4-1,7 % C sowie Baustähle mit ≤ 0,4 % C. Zum Schluss sei noch eine weiter Facette des Minimum-Maximum-Den‐ kens kurz behandelt. Ich kannte einen jungen Chemiker, der sich als gera‐ dezu genial im Abfassen von Patentschriften erwies, auch wenn die einer vorgesehenen Anmeldung zugrunde liegende Idee unter dem Gesichtspunkt des Niveaus, d. h. der Erfindungshöhe, manchmal eher zu wünschen übrig ließ. Sein Trick bestand in der sprachlich glamourösen Handhabung der Minimumkomponente zum Zwecke des verdeckten Schutzes der Maximum‐ komponente(n). So behauptete er locker, ein bestimmtes Parfum mit Hilfe eines Kompo‐ nentengemisches, das mehr als 99,9 % der Gesamtkomposition ausmachte, stabilisieren zu können. Dahinter verbarg sich natürlich, dass er eigentlich eben dieses Komponentengemisch geschützt haben wollte. Genau dies aber war - weil für den in der Patentspruchpraxis legendären „Durchschnitts‐ fachmann“ naheliegend - aussichtslos. Deshalb wandte mein Spezi den 168 3 Methoden und Praxisempfehlungen <?page no="169"?> geschilderten Trick an, der ihm auch im Wiederholungsfalle, d. h. in analogen Situationen, vom Prüfer durchaus nicht um die Ohren gehauen wurde. Wir sehen, dass kreatives Arbeiten unter anderem auch sportliche Aspekte haben kann. Dem Leser sei empfohlen, sein eigenes Fachgebiet unter den in diesem Abschnitt behandelten Gesichtspunkten gründlich und kritisch auf denk‐ bare Anwendungen zu durchforsten. Wahrscheinlich findet sich dabei diese oder jene bisher nicht erwogene Übertragungsmöglichkeit. Das „Mikro-Makro-Denken“ hilft uns mindestens auf folgenden Gebieten: Übertragungen zwischen Laboratoriums- und technischen Erfahrungen, Maßstabsübertragungen „mit Pfiff “ (vordergründige Maßstabsübertragun‐ gen sind nicht schutzfähig), Übergang in völlig neue Eigenschafts- und Arbeitsbereiche mit Hilfe extrem feinteiliger Stoffe, Anwendung des Mi‐ nimum-Maximum-Denkens auf komplexe Systeme, kreativer Einsatz des Prinzips „Kleine Ursache, große Wirkung“. 3.4.9 „Von Selbst“ - die raffiniert einfache Lösung Wir haben das „Von Selbst“-Prinzip als eines der Prinzipien zum Lösen Technischer Widersprüche bereits im Abschnitt 3.1.2 kennen gelernt. Das Prinzip ist jedoch von derart zentraler Bedeutung, dass wir es hier separat als besonders wichtiges, eigenständiges Instrument behandeln wollen. Der bewusste und routinierte Einsatz des Prinzips kann ohne jede Übertreibung als die Hohe Schule des technisch-kreativen Arbeitens bezeichnet werden. Wir wollen deshalb die unterschiedlichen Aspekte, unter denen das Prinzip betrachtet werden kann, an diversen Beispielen abhandeln. Der Erfinder sollte stets danach streben, eine Sache (ein Verfahren, eine Vorrichtung, eine Vorgehensweise) so einfach wie möglich zu gestalten. Das Ideale Endresultat bedeutet hier nicht mehr und nicht weniger als die Vorgabe, dass etwas von selbst funktionieren soll bzw. raffiniert einfach zu sein hat. Man befindet sich damit in bester Gesellschaft. So forderte bereits Albert Einstein: „Alles sollte so einfach wie möglich gemacht werden, aber nicht einfacher“. Grundsätzlich zeigt sich bei der Suche nach Beispielen, dass das „Von Selbst“-Prinzip entweder für sich allein steht oder als übergeordnetes Prinzip für andere, minder universelle Prinzipien fungiert. Meist werden die Elemente des betrachteten Systems, d. h. die verwen‐ deten Apparate, die wirkenden Kräfte bzw. Bewegungsformen, die anwe‐ senden Substanzen etc., oder aber die in der Umgebung - gewissermaßen 169 3.4 Ausgewählte einfache Lösungsstrategien <?page no="170"?> kostenlos - vorhandenen Kräfte (z. B. Auftrieb oder Gravitation) unmittelbar für die „Von Selbst“-Lösung eingesetzt. Es ist allerdings eine Ermessensfrage, wie man die jeweilige konkrete technische Lösung unter methodischen Aspekten interpretiert. Beispielsweise ließe sich der Einsatz eines ohnehin im System vorhandenen Apparates für eine „Von Selbst“-Lösung getrost als „Mehrzwecknutzung“ interpretieren. Ferner könnte die automatische Regulierung eines Prozesses mittels im Prozess selbst gewonnener Messgrö‐ ßen unter „Schaffen optimaler Bedingungen“ rangieren. Auch in derartigen Fällen bliebe allerdings das „Von Selbst“-Prinzip stets übergeordnet. Betrachten wir zunächst einige Beispiele, die das Prinzip und seine besondere Bedeutung überzeugend illustrieren. Es sei daran erinnert, dass auch Altschuller seine Beispiele aus dem normalen Patentfundus gewonnen hatte. Dem gemäß ist sicherlich wohl kaum eines der folgenden Beispiele auf systematische Weise entstanden. Dennoch spricht der Umstand, dass es auch heute noch nur vergleichsweise wenige durch systematisches Vorgehen entstandene Beispiele gibt, nicht im Geringsten gegen die Methode. Erstens sind die Möglichkeiten systematischen Vorgehens noch immer vielen potenziellen Interessenten völlig unbekannt, und zweitens neigt der Mensch, selbst wenn er Kenntnis von der Methode hat, nicht unbedingt zu ihrer Anwendung: „Im Normalfall denkt der Mensch nicht“ (Albrecht 1996). „Es ist nicht des Menschen Natur, vorzugsweise rational dominiert geistig zu arbeiten“ (Müller 1994). Es ist deshalb durchaus nicht paradox, wenn der Kreative die Möglichkeiten des systematischen Vorgehens kaum nutzt. Anscheinend geht es ihm wie allen Men‐ schen: Fachkenntnisse, sofern vorhanden, verlocken zum sofortigen „Drauflos- Arbeiten“. Der Sachkundige glaubt auf Methode verzichten zu können, da er ja etwas von der Sache versteht, und wer „von außen“ sollte ihm bei seiner Arbeit schon helfen können? Der Nicht-Sachkundige arbeitet nicht mit Kenntnissen und Bildung, dafür aber ersatzweise mit Einbildung. Getragen von maßloser Selbstüberschätzung erwägt er erst recht nicht den Einsatz von Methoden. Wir wollen uns von diesen pessimistisch klingenden - in der Praxis aber realistischen - Einschränkungen jedoch nicht bremsen lassen, und nunmehr zu den angekündigten Beispielen kommen. Betrachten wir zunächst eine Vorrichtung zum Reinigen von gebrauchten Öl-Wasser-Emulsionen. Derartige Emulsionen fallen z. B. im Werkzeugma‐ schinenbau in großem Umfang als Kühlschmiermittel an, so als Bohr-, Schneid- und Schleifemulsionen. Ein bevorzugtes Anwendungsgebiet ist 170 3 Methoden und Praxisempfehlungen <?page no="171"?> insbesondere die Reinigung kreislaufgeführter Öl-Wasser-Emulsionen an Maschinensystemen und Einzelmaschinen. Dokumentvorlage • Narr Verlage | A 3.3 160 Abb. 18 Vorrichtung zum Reinigen von gebrauchten Öl-Wasser-Emulsionen (Ideen für Ihren Erfolg 1995, S. 156/ 157) Erfindungsgemäß wird die zu reinigende Öl-Wasser-Emulsion unter Zusatz einer bestimmten Luftmenge über eine Zuführungsleitung tangential in die Strömungskammer geführt. Durch das federbelastete Entspannungsventil entsteht ein Überdruck in der Strömungskammer, der dazu führt, dass sich die zugesetzte Luft in der Emulsion löst. Wasser und niedermolekulare Verunreinigungen verlassen durch die semipermeable Membran die Strömungskammer. Beim Überleiten der Emulsion durch das Entspannungsventil kommt es zur Entspannung. Dabei werden Gasblasen frei, welche die Flotation der Verunreinigungen bewirken. Die gereinigte Öl-Wasser-Emulsion tritt über die Rücklaufleitung aus dem Flotationsbehälter aus (Ideen für Ihren Erfolg 1995, S. 156/ 157). Der „Von Selbst“-Gesichtspunkt ist in diesem Falle durch die Verwendung einer Feder charakterisiert. Die Luft muss zunächst ohnehin unter Druck gelöst werden, damit das Verfahren anschließend, in der Entspannungsphase, mithilfe der frei gesetzten Gasbläschen (Selterswasser-Effekt) funktionieren kann. Das Arbeiten gegen eine Feder in der Überdruckphase ist die einfachste Form der Energiespeicherung. In der Entspannungsphase entstehen dann die Gasbläschen, welche die Flotation der Öltröpfchen bewirken, von selbst (Abb. 18). Abb. 18 Vorrichtung zum Reinigen von gebrauchten Öl-Wasser-Emulsionen (Ideen für Ihren Erfolg 1995, S. 156/ 157) Erfindungsgemäß wird die zu reinigende Öl-Wasser-Emulsion unter Zusatz einer bestimmten Luftmenge über eine Zuführungsleitung tangential in die Strömungskammer geführt. Durch das federbelastete Entspannungsventil entsteht ein Überdruck in der Strömungskammer, der dazu führt, dass sich die zugesetzte Luft in der Emulsion löst. Wasser und niedermoleku‐ lare Verunreinigungen verlassen durch die semipermeable Membran die Strömungskammer. Beim Überleiten der Emulsion durch das Entspannungs‐ ventil kommt es zur Entspannung. Dabei werden Gasblasen frei, welche die Flotation der Verunreinigungen bewirken. Die gereinigte Öl-Wasser- Emulsion tritt über die Rücklaufleitung aus dem Flotationsbehälter aus (Ideen für Ihren Erfolg 1995, S. 156/ 157). Der „Von Selbst“-Gesichtspunkt ist in diesem Falle durch die Verwendung einer Feder charakterisiert. Die Luft muss zunächst ohnehin unter Druck ge‐ 171 3.4 Ausgewählte einfache Lösungsstrategien <?page no="172"?> löst werden, damit das Verfahren anschließend, in der Entspannungsphase, mithilfe der frei gesetzten Gasbläschen (Selterswasser-Effekt) funktionieren kann. Das Arbeiten gegen eine Feder in der Überdruckphase ist die ein‐ fachste Form der Energiespeicherung. In der Entspannungsphase entstehen dann die Gasbläschen, welche die Flotation der Öltröpfchen bewirken, von selbst (Abb. 18). Dokumentvorlage • Narr Verlage | A 3.3 160 frei gesetzten Gasbläschen (Selterswasser-Effekt) funktionieren kann. Das Arbeiten gegen eine Feder in der Überdruckphase ist die einfachste Form der Energiespeicherung. In der Entspannungsphase entstehen dann die Gasbläschen, welche die Flotation der Öltröpfchen bewirken, von selbst (Abb. 18). Abb. 19 Staubarmes Abfüllen von Schüttgütern (Ideen für Ihren Erfolg 1995, S.158/ 159) Das nächste Beispiel steht für das Wirken des „Von Selbst“-Prinzips mithilfe der Mehrzwecknutzung. Ein großes Problem bei der Abfüllung von Schüttgütern aus einem Silo in einen Transportbehälter ist die Entstaubung. Gewöhnlich wird die beim Befüllen eines Behälters zwangsläufig verdrängte - stark staubhaltige - Luft in einer zusätzlichen Anlage mehr oder minder aufwändig gereinigt. Ein Verfahren zum staubarmen Abfüllen von Schüttgütern lässt das Problem gar nicht erst aufkommen. Während des Abfüllens ist die Schnittstelle Abb. 19 Staubarmes Abfüllen von Schüttgütern (Ideen für Ihren Erfolg 1995, S.158/ 159) Das nächste Beispiel steht für das Wirken des „Von Selbst“-Prinzips mithilfe der Mehrzwecknutzung. Ein großes Problem bei der Abfüllung von Schüttgütern aus einem Silo in einen Transportbehälter ist die Entstaubung. Gewöhnlich wird die beim Befüllen eines Behälters zwangsläufig verdrängte - stark staubhaltige - Luft in einer zusätzlichen Anlage mehr oder minder aufwändig gereinigt. Ein Verfahren zum staubarmen Abfüllen von Schüttgütern lässt das Problem gar 172 3 Methoden und Praxisempfehlungen <?page no="173"?> nicht erst aufkommen. Während des Abfüllens ist die Schnittstelle Transport‐ behälter-Silo nahezu staubdicht verbunden. Nach dem Öffnen des Schiebers rieselt das Schüttgut aus dem Silo in den Transportbehälter. Die bei diesem Vorgang aus dem Transportbehälter verdrängte Luft wird über ein Luftleitblech in das Innere des Silos geleitet. Es bildet sich ein geschlossener Luftkreislauf aus (Abb. 19; Ideen für Ihren Erfolg 1995, S. 158/ 159). Das Verfahren ist insofern ein Musterbeispiel, als ausschließlich mit den vorhandenen Ressourcen gearbeitet wird: Silo; Transportbehälter; in der Abfüllphase sich einstellende Druckdifferenz: Luftdruck im Silo sinkt, Luftdruck im Transportbehälter steigt; Nutzung der Druckdifferenz für das Rückströmen der staubhaltigen Luft zum Silo. Ein vollautomatisches Transportsystem für Fotomasken illustriert das „Von-selbst-Prinzip“ ebenfalls. Fotomasken werden zur Herstellung inte‐ grierter Schaltungen benötigt. Nach erfolgter Herstellung werden sie in Kontrollgeräten auf Fehler in der aufgebrachten Struktur geprüft. Es ist da‐ bei notwendig, die Masken unter Reinraumbedingungen absolut zuverlässig zwischen den einzelnen Geräten zu transportieren. Dokumentvorlage • Narr Verlage | A 3.3 161 Abb. 20 Vollautomatisches Transportsystem für Fotomasken (Ideen für Ihren Erfolg 1995, S. 262/ 263) Linearmotor, dessen Sekundärteil in die zu transportierende Pho-tomaske integriert ist Bildbeschreibung endet hier. Das erfindungsgemäße Transportsystem ist ein Linearmotor. Die Fotomaske ist Teil des Transportsystems. Der feststehende Primärteil besteht aus zwei lang gestreckten, genuteten Magnetkörpern, welche die Wicklungen tragen, und zwei ebene Magnetkreise ergeben. Zwei Randzonen der Fotomaske sind so strukturiert, dass sie den Sekundärteil des Motors darstellen, so dass der gewünschte Transport der Maske bei Inbetriebnahme des Motors von selbst erfolgt (Abb. 20; Ideen für Ihren Erfolg 1995, S. 262/ 263). Alle „Umweltenergien“ fallen unter das Von Selbst-Prinzip, da sie kostenlos - und innerhalb ihres heutigen Wirkungsbereiches praktisch unerschöpflich - zur Verfügung stehen (z. B. Auftrieb, Gravitation, Erdmagnetismus, Solarenergie). Abb. 20 Vollautomatisches Transportsystem für Fotomasken (Ideen für Ihren Erfolg 1995, S. 262/ 263) Linearmotor, dessen Sekundärteil in die zu transportierende Photomaske integriert ist 173 3.4 Ausgewählte einfache Lösungsstrategien <?page no="174"?> Das erfindungsgemäße Transportsystem ist ein Linearmotor. Die Fotomaske ist Teil des Transportsystems. Der feststehende Primärteil besteht aus zwei lang gestreckten, genuteten Magnetkörpern, welche die Wicklungen tragen, und zwei ebene Magnetkreise ergeben. Zwei Randzonen der Fotomaske sind so strukturiert, dass sie den Sekundärteil des Motors darstellen, so dass der gewünschte Transport der Maske bei Inbetriebnahme des Motors von selbst erfolgt (Abb. 20; Ideen für Ihren Erfolg 1995, S. 262/ 263). Alle „Umweltenergien“ fallen unter das Von Selbst-Prinzip, da sie kostenlos - und innerhalb ihres heutigen Wirkungsbereiches praktisch unerschöpf‐ lich - zur Verfügung stehen (z. B. Auftrieb, Gravitation, Erdmagnetismus, Solarenergie). Dem gemäß fällt auch eine militärische Entwicklung unter das Von Selbst-Prinzip: Strom aus der Zeltplane. Die U.S. Army hat mithilfe der Solarenergie ihre Hightech-Kampfeinheiten mobiler gemacht. Früher muss‐ ten große Generatoren oder schwere Batterien mitgeschleppt werden. Die Solarzelte hingegen lassen sich im Rucksack verstauen. Stehen sie aufgebaut in der Sonne, so bringen die flexiblen Solarzellen auf dem Zeltdach immerhin eine Leistung von rund einem Kilowatt. Die Technologie bringt zudem einen Sicherheitsgewinn für die Soldaten: Gegnerische Wärmebildkameras orten zwar in Betrieb befindliche Generatoren, nicht aber die neuartigen Solarzelte (SPIEGEL 2004, Nr. 28). Im Falle dieses Beispieles erfolgt die konkrete technische Umsetzung des Von Selbst-Universalprinzips ganz offensichtlich mithilfe der minder universellen Prinzipen: „Mehrzwecknutzung“ sowie „Verwenden elastischer Umhüllungen und dünner Folien“. Auf die nun folgenden drei Beispiele hat mich freundlicherweise mein Methodiker-Kollege R. Hartmann (Hückeswagen) hingewiesen. Er sammelt besonders eindrucksvolle „Von Selbst“-Muster und nutzt die sich ergebenden Analogien gezielt in seiner Beratertätigkeit. Eine mit Urin betriebene Mini-Batterie wurde von Ki Bang Lee entwickelt. Die Einzelzelle besteht aus einem mit Kupferchloridlösung behandelten und nachfolgend getrockneten Filterpapier, das zwischen einem Magnesium- und einem Kupferstreifen angeordnet ist. Mehrere Filterpapier- und Magnesium- Schichten, jeweils durch eine Kupferschicht getrennt, werden sandwichartig zusammengebaut (Reihenschaltung). Die Batterie wird mit etwas Urin, der vom Filterpapier aufgesaugt wird, in Betrieb gesetzt. Mit dieser Batterie, so hofft der Forscher, könnten beispielsweise Diabetes-Testkits betrieben werden, die den Glucosegehalt im Harn unabhängig von einer externen Spannungsquelle messen (Journal of Micromechanics and Microengineering 2005). Dieses Beispiel 174 3 Methoden und Praxisempfehlungen <?page no="175"?> ist in methodischer Hinsicht besonders überzeugend, denn das Medium, dessen Eigenschaften gemessen werden sollen, schafft die messtechnisch dazu erfor‐ derlichen Voraussetzungen selbst. Bienen sind nicht - wie bisher meist angenommen - perfekte Architekten, die ihre Waben in Form regelrechter Sechsecke bauen. Vielmehr bauen sie aus dem Wachs ganz schlichte Zylinder, die dann bei der Arbeitstemperatur von 40°C zu fließen beginnen, und zwar nicht irgendwo hin, sondern von selbst in die energetisch günstigste Form, das regelmäßige Sechseck. Bei diesem Beispiel wirkt somit allein die Selbstorganisationskraft der Natur. Die Biene jedenfalls hat die vielbewunderten regelmäßigen Waben nicht geschaffen, auch wenn dies von den meisten Menschen noch immer ganz anders wahrgenommen wird. Das beschriebene Muster der Selbstorganisation dürfte für industrielle Zwecke mehr und mehr an Bedeutung gewinnen. Mirtsch und Mitarbeiter entwickelten Technologien, bei denen sich dünnes Blech unter Belastung selbst seine optimale neue Form sucht. Das Blech wird über einen Kern aus mehreren Ringen mit gleichen Ab‐ ständen gelegt und hydraulisch angedrückt. Werden stabile Ringe benutzt, entstehen gleichmäßige Vierecke, bei flexiblen Ringen hingegen Strukturen, die den Bienenwaben ähnlich sind. Das Verfahren funktioniert ohne Anwendung der bisher gebräuchlichen Formwerkzeuge. Die stabilen Wölbstrukturen bilden sich von selbst, zudem ohne die bei den gängigen Press-, Drück- und Tiefzieh-Verfahren unver‐ meidlich hohen - oft schädlichen - Dehnungen des Materials aus. Die ursprünglichen Materialeigenschaften, das gilt auch für die Oberflächen‐ struktur, bleiben erhalten. Das wölbstrukturierte Blech weist eine hohe Biegesteifigkeit in allen Richtungen auf, wie sie sonst nur durch Sicken erreichbar ist. Die wölbstruk‐ turierten Bleche werden bereits für Leichtbauzwecke aller Art, insbesondere im Automobilbau, eingesetzt (Mirtsch et. al., Pat 1996/ 2002 sowie Pat. 1997/ 2002). Alle guten „Von Selbst“-Beispiele sind schon an der Formulierung der jeweiligen Schutzrechte zu erkennen. Der hier als Stereotyp zu empfehlende Terminus „selbst“ oder gar „von selbst“ lässt keine Irrtümer aufkommen. Auch der Patentprüfer, so die nicht unberechtigte Hoffnung des Anmelders, wird sich von dieser Terminologie wohl beeindruckt zeigen, und fachlich dann nicht mehr gar so genau hinschauen. 175 3.4 Ausgewählte einfache Lösungsstrategien <?page no="176"?> Ein „Selbstschärfendes Werkzeug für die Keramikbearbeitung“ ist als Bohrwerkzeug mit geklemmter Schneidplatte ausgeführt. Das Werkzeug besteht aus einem röhrenförmigen Halter und einer dünnen Schneidplatte (0,1 bis 2 mm). Eine Stiftschraube verspannt die auf den Nenndurchmesser eingestellte Schneidplatte außermittig im Klemmschlitz des Halters. Die Dicke der Schneide ist derart bemessen, dass die stumpfe Schneidkante immer wieder ausbricht, und die Schneide sich somit selbst schärft. Die Form der Schneidplatte hat keinen Einfluss auf das Bearbeitungsergebnis, so dass sowohl runde, ovale oder eckige Formen zum Einsatz kommen können (Abb. 21). Dokumentvorlage • Narr Verlage | A 3.3 164 Abb. 21 Selbstschärfendes Werkzeug für die Keramikbearbeitung (Ideen für Ihren Erfolg 1995, S.198/ 199) Originell ist die Messung des Milchvolumens in einer Melkanlage. Bisher nutzten die meisten Messeinrichtungen zwar bereits die Auslaufzählung oder Durchflussvolumenmessung; allerdings mussten sie wegen der Schaumbildung beim Milchfluss fast immer mit durchflussabhängigen Korrekturmechanismen ausgestattet werden. So wurde z. B. durch zusätzliche Messung der elektrischen Leitfähigkeit oder Dichte der Luftgehalt der Milch bei der Volumenmessung berücksichtigt. Das neue Verfahren hingegen nutzt die im System ohnehin vorhandenen Möglichkeiten aus, um die Milch vor der Messung zu entschäumen. Damit entfallen die erläuterten - vergleichsweise komplizierten - Korrekturverfahren. Abb. 22 zeigt, wie das neue Verfahren funktioniert. Der Auslaufzähler selbst ist insgesamt so konstruiert, dass die Milch vor der Volumenmessung weitgehend entschäumt wird, und die Restentschäumung im Eingangsbereich der Zählwerkskammern erfolgt. Abb. 21 Selbstschärfendes Werkzeug für die Keramikbearbeitung (Ideen für Ihren Erfolg 1995, S.198/ 199) Originell ist die Messung des Milchvolumens in einer Melkanlage. Bis‐ her nutzten die meisten Messeinrichtungen zwar bereits die Auslaufzäh‐ 176 3 Methoden und Praxisempfehlungen <?page no="177"?> lung oder Durchflussvolumenmessung; allerdings mussten sie wegen der Schaumbildung beim Milchfluss fast immer mit durchflussabhängigen Kor‐ rekturmechanismen ausgestattet werden. So wurde z. B. durch zusätzliche Messung der elektrischen Leitfähigkeit oder Dichte der Luftgehalt der Milch bei der Volumenmessung berücksichtigt. Das neue Verfahren hingegen nutzt die im System ohnehin vorhande‐ nen Möglichkeiten aus, um die Milch vor der Messung zu entschäumen. Damit entfallen die erläuterten - vergleichsweise komplizierten - Korrek‐ turverfahren. Abb. 22 zeigt, wie das neue Verfahren funktioniert. Der Auslaufzähler selbst ist insgesamt so konstruiert, dass die Milch vor der Volumenmessung weitgehend entschäumt wird, und die Restentschäumung im Eingangsbereich der Zählwerkskammern erfolgt. Abb. 22 Messung des Milchvolumens in einer Melkanlage (Ideen für Ihren Erfolg 1996, Bd. 2, S. 312/ 313) Im Detail verläuft der Prozess so, dass das in der Trennkammer herrschende Vakuum die aufsteigenden Luftblasen an der Ablenkwand entlang aus der 177 3.4 Ausgewählte einfache Lösungsstrategien <?page no="178"?> Milch saugt, und gleichzeitig für die Drehung des Zählrades sorgt. Dadurch gelangt die Milch in die Zählkammern. Die um 2 bis 7° schräg gestellte Trennwand bewirkt sodann die Verdrängung der verbliebenen Restschaum‐ schicht aus der jeweiligen Zählkammer, so dass nur schaumfreie Milch in die Zählkammer gelangt. In methodischer Hinsicht haben wir es - neben dem Von Selbst-Oberprinzip - mit dem Prinzip der Mehrzwecknutzung zu tun. Das ohnehin im System vorhandene Vakuum erfüllt zusätzlich zur Hauptfunktion (dem Melken der Kühe) zwei Hilfsbzw. Nebenfunktionen: Absaugen der Luftblasen zwecks Schaumzerstörung, Drehen des Zählwer‐ kes. Die Rest-Entschäumung erfolgt ebenfalls von selbst durch einen uralten Trick, den man beim Einschenken von Bier oder Sekt beobachten kann: Ein schräg gehaltenes Glas ist die Voraussetzung dafür, dass das Getränk beim Einschenken nicht überschäumt, bzw. beim langsamen Eingießen fast schaumfrei bleibt. Das Analogon dazu ist bei unserem Beispiel offensichtlich die schräg gestellte Trennwand der Zählvorrichtung. Abb. 23 Dosiergefäß zum Befüllen mit Elektrolyten (Ideen für Ihren Erfolg 1996, Bd. 2, S. 230) 178 3 Methoden und Praxisempfehlungen <?page no="179"?> Ein Dosiergefäß zum Befüllen mit Elektrolyten nutzt ebenfalls Elemente der Von Selbst-Philosophie. Bisher gebräuchliche Vorrichtungen zur Befüllung von Akkumulatoren entnahmen eine definierte Menge aus einem Vorrats‐ behälter und gaben diese in die Akkumulatorzellen ab. Dies erfordert eine mehr oder minder aufwändige Messung des Volumen‐ stroms. Die neue Vorrichtung arbeitet hingegen mit einem Dosiergefäß, welches in Teilräume gegliedert ist, die der Anzahl und dem Füllvolumen der Akkumulatorzellen entsprechen. Eine zusätzliche Sektion (Abb. 23, ganz rechts) gestattet das Ablassen von überschüssigem Elektrolyten in ein tiefer liegendes Reservoir. Alle Akkumulatorzellen können gleichzeitig mit der Normmenge befüllt werden. Bis auf die Zufuhr des Elektrolyten in die Befüllvorrichtung laufen alle Vorgänge von selbst unter freiem Gefälle ab. Dosierfehler sind ausgeschlossen, da bei der geschilderten Arbeitsweise automatisch jede normierte Kammer bis zum Überlauf gefüllt ist, ehe mit dem Befüllen der Akkumulatorenzellen begonnen wird (Ideen für Ihren Erfolg 1996, Bd. 2, S. 230/ 231). Übliche Strömungssensoren zur Durchflussmessung in Rohrleitungen er‐ fordern oft einen hohen Fertigungsaufwand. Auch ist die Signalauswertung nicht unkompliziert. Hinzukommt, dass Ablagerungen und Verschmutzun‐ gen zu Messfehlern bzw. Ausfällen führen können. Ein neuartiger Strömungssensor (Abb. 24) besteht im Kern aus einem elastischen Biegekörper, der mit einem Paar Dehnungsmessstreifen beklebt ist. Er wird in einer Radialbohrung senkrecht zur Strömungsachse fixiert. Abgesehen von der Durchflussmenge des Fluids können auch Strömungs‐ richtung und Verschmutzungsgrad bestimmt werden. 179 3.4 Ausgewählte einfache Lösungsstrategien <?page no="180"?> Abb. 24 Strömungssensor zur Durchflussmessung und Bestimmung des Ver‐ schmutzungsgrades feststoffbeladener Fluide (Ideen für Ihren Erfolg 1996, Bd. 2, S. 314) Je nach Strömungsrichtung wird die Dehnung bzw. Stauchung der Mess‐ streifen in ein dem Durchfluss proportionales elektrisches Signal umgewan‐ delt. Temperaturabhängige Verformungen werden durch die gegenständige Anordnung der Dehnungsmessstreifen ausgeglichen. Bei Stillstand der Anlage kann aus der verbleibenden Restbiegung anhand der Widerstands‐ änderung auf den Verschmutzungsgrad geschlossen werden (Ideen für Ihren Erfolg 1996, Bd. 2, S. 314/ 315). Methodisch gesehen haben wir es bei diesem Beispiel wiederum mit mehreren Prinzipien zu tun. Das Von Selbst-Oberprinzip wird durch die Federkraft des Biegekörpers und seine Kombination mit den gegenständigen Dehnungsmessstreifen (Prinzip der Selbst-Kompensation) repräsentiert. 180 3 Methoden und Praxisempfehlungen <?page no="181"?> Auch gilt das Separationsprinzip Nr. 4 (siehe 3.4.2): Die Gesamteigenschaf‐ ten des Systems werden von den z. T. ganz anderen Eigenschaften der Teilsysteme bestimmt. Schließlich erkennen wir das Prinzip der Mehrfach‐ nutzung: Die Vorrichtung lässt sich gleichermaßen für die Messung des Volumenstromes, die Bestimmung der Strömungsrichtung, und sogar des Verschmutzungsgrades nutzen. Besonders interessant wird es, wenn wir deutlich ältere Patente analysieren. Wir finden dann Altschullers Behauptung bestätigt, dass sich das Wirken der Prinzipien, ganz unabhängig vom Fachgebiet und vom Alter der Patente, immer und immer wieder nachweisen lässt. So findet sich ein hübscher mechanischer Vorläufer der heutigen elektroni‐ schen Einparkhilfen für Automobile in einem schon recht alten Deutschen Reichspatent („Entfernungsmesser für die Landung von Luftfahrzeugen“). In Abb. 25 sind Einzelheiten dargestellt. Fig. 1 zeigt den Entfernungsmesser in der Anfangsstellung (aufgewickeltes Seil mit einem daran befestigten Gewicht). Fig. 2 stellt die Vorrichtung in Gebrauchsstellung dar, Fig. 3 in Funktion während der Landung. Lesen wir, was uns der Erfinder zu sagen hat (Otto 1920 a, S. 152): „Bei beabsichtigter Landung löst der Führer des Flugzeugs das Gewicht g durch Herumlegen eines Hebels aus, so daß es herabgleitet und die Schnur bis zu einer bestimmten Meterzahl abrollt. Die ablaufende Meterzahl kann durch Umschrauben des Stiftes d in die anderen dafür vorgesehenen Gewindelöcher beliebig geändert werden. Senkt sich das Flugzeug weiter, so schleift das Gewicht am Boden, der Zug in der Schnur vergrößert sich, und die Feder h wird durch den Stift d gegen die Feder i gedrückt, worauf eine Lampe erglüht oder eine Glocke ertönt und dem Führer die Nähe des Bodens in der eingestellten bestimmten Entfernung gemeldet wird. Sollte das Gewicht beim Schleifen auf dem Boden hängen bleiben, so werden durch vermehrten Zug beide Kontaktfedern durch den Stift d durchgedrückt, der Umlauf findet weiter statt, bis das Flugzeug zum Stehen gebracht ist. Auch bei Überlandfliegen, Überfliegen von Wald oder sonstigen Hindernissen wird der Führer gewarnt.“ 181 3.4 Ausgewählte einfache Lösungsstrategien <?page no="182"?> Abb. 25 Entfernungsmesser für die Landung von Luftfahrzeugen (nach: Otto 1920 a) Wir sehen, mit welch abenteuerlichen Vorrichtungen unsere Vorfahren, hier speziell die „tollkühnen Männer in ihren fliegenden Kisten“, operierten. Richtig mulmig wird uns, wenn wir an das „Überfliegen von Wald oder sonstigen Hindernissen“ (s. o.) denken. Methodisch gesehen ist das Wirken des Von Selbst-Prinzips hier buchstäblich selbsterklärend. Was zusätzlich interessiert, ist der historische Kontext. Wie bei den meisten Erfindungen, ist auch an unserem Beispiel der Stand der damaligen Technik - hier: der Flugtechnik - direkt ablesbar. Anders ausgedrückt, hat jede Zeit im We‐ sentlichen die ihrem Entwicklungsstand entsprechenden Erfindungen. An dem vorliegenden Beispiel erkennen wir die Bedeutung des von Altschuller (1984) in die Erfindungslehre eingeführten und von Linde (1993) methodisch weiterentwickelten Konzepts der Technischen Evolution. Hier haben wir es mit der Jugendphase eines Technischen Systems zu tun. Die Flugzeuge waren damals klein, leicht, oft abenteuerlich zusammengeschustert. 182 3 Methoden und Praxisempfehlungen <?page no="183"?> Die Theorie des Fliegens war keineswegs ausgefeilt und durchaus noch nicht allgemein anerkannt, so dass beispielsweise von einigen Piloten die Möglichkeit des Baus von schweren Metallflugzeugen glatt bestritten wurde. Hugo Junkers hatte zwar 1915 in Dessau das erste Ganzmetallflug‐ zeug der Welt - als Eindecker - gebaut, konnte die deutsche Generalität damit aber keineswegs überzeugen. So kam es, dass im Ersten Weltkrieg fast nur Doppeldecker in Leichtbau- Ausführung eingesetzt wurden. Der Pilot selbst schoss aus offener Kanzel. Segeltuch auf leichtem Holzgerippe als Material für die Tragflächen und Klaviersaitendraht zur Verspannung der Elemente bestimmten damals den Stand der Technik. Nur in diesem Zusammenhang können wir Abb. 25 überhaupt verstehen. Für die heutigen Flugzeuge wäre der Einsatz einer solchen Technik natur‐ gemäß völlig undenkbar. Ein weiteres Beispiel (Abb. 26) zeigt die direkte Nutzung einer Naturkraft, und zwar des Auftriebs. Zur Gewährleistung eines konstanten Abflusses aus Wasserspeichern waren bereits zahlreiche hydraulische Vorrichtungen bekannt. Sie arbeiteten mit oder auch ohne Fremdenergie und erforderten stets einen gewissen Bedienaufwand. Bei unserem Beispiel ist das nicht der Fall. Die Vorrichtung arbeitet völlig automatisch und bedarf keinerlei Bedienung. Die Abflussanlage besteht aus dem schwimmenden Einlaufkasten mit seitlichen Öffnungen und einer beweglichen Ablaufleitung. Der Einlauf‐ kasten ist durch Befestigungsteile an Schwimmkörpern höhenverstellbar montiert. Durch vertikales Verstellen kann die einströmende Wassermenge festgelegt werden. Die Rohrleitung ist durch Flanschverbindungen mit dem Einlaufkasten und dem Auslaufbauwerk verbunden (Ideen für Ihren Erfolg 1996, S. 16/ 17). Eine Fülle verschiedenartiger, und doch in systematischer Hinsicht immer wieder gleicher bzw. analoger Anwendungen wird anhand eines Beispiels in Abb. 27 dargestellt. Es handelt sich um das automatische Ein- und Ausschalten von Funktionen. Unser - ganz bewusst dem alten Patentfundus entnommenes - Beispiel zeigt einen damals üblichen Spirituskocher, dessen Flamme erlischt, wenn das Kochgefäß vom Feuer genommen wird. 183 3.4 Ausgewählte einfache Lösungsstrategien <?page no="184"?> Abb. 26 Automatisch arbeitende Abflussanlage mit konstantem Abfluss (Ideen für Ihren Erfolg 1996, Bd.2, S.16/ 17) Unten ist die Seitenansicht, oben die Draufsicht dargestellt. Wird ein Koch‐ gefäß auf die Stützen f, g und h aufgesetzt, so werden diese niedergedrückt, und die Deckelteile 4, 5 und 6 des Brennstoffbehälters öffnen sich. Beim Abnehmen des Gefäßes fallen sie durch ihre eigene Schwere zurück und schließen den Brennstoffbehälter. Die als Kolben ausgebildeten Stützen f, g und h werden möglichst leicht ausgeführt, da die Deckelteile 4, 5 und 6 die Stützen nach Abnehmen des Kochgefäßes wieder hoch drücken müssen (Otto 1920 b, S. 46/ 47). Wir erkennen ein Grundmuster, das uns häufig begegnet. Mittels einer alternativ belasteten bzw. unbelasteten Trittplatte werden Funktionen akti‐ viert oder beendet. Beispielsweise kann so das Licht beim Betreten einer Toilette eingeschaltet werden. Bereits vor hundert Jahren wurde es jedoch als lästig empfunden, dass das Licht jeweils erlosch, nachdem der Benutzer 184 3 Methoden und Praxisempfehlungen <?page no="185"?> Platz genommen und so die Trittplatte entlastet hatte. Als wesentliche Verbesserung wurde damals eine „Selbsttätige elektrische Beleuchtungsvor‐ richtung für Abtritträume“ angesehen, bei der die Trittplatte mit der abge‐ federten Toilettenbrille über Streben verbunden ist, um auch dann noch den Kontakt zu behalten, wenn die Trittplatte nicht mehr unter voller Belastung steht (Otto 1920 c). Heute werden die gewünschten Funktionen mit Lichtschranken oder Bewegungsmeldern gewährleistet. Die Rolle des Benutzers im System ist jedoch analog. Dokumentvorlage • Narr Verlage | A 3.3 172 Abb. 27 Spirituskocher, dessen Flamme beim Abnehmen des Kochgefäßes ausgelöscht wird (nach: Otto 1920 b, D.R.P. 315 072) Der kritische - sich selbst gegenüber anspruchsvolle - Kreative erkennt, dass hier im methodischen Sinne kaum noch von wirklich neuen Lösungen Abb. 27 Spirituskocher, dessen Flamme beim Abnehmen des Kochgefäßes ausgelöscht wird (nach: Otto 1920 b, D.R.P. 315 072) Der kritische - sich selbst gegenüber anspruchsvolle - Kreative erkennt, dass hier im methodischen Sinne kaum noch von wirklich neuen Lösungen gesprochen werden kann. Das Patentamt ist erheblich großzügiger. Wer erstmalig einen Bewegungssensor für diesen Zweck vorschlägt, erhält im 185 3.4 Ausgewählte einfache Lösungsstrategien <?page no="186"?> Allgemeinen sein Patent. Für den Prüfer kommt es vor allem darauf an, ob ein bestimmtes technisches Mittel erstmalig für das Erreichen eines bestimmten technischen Zwecks eingesetzt worden ist. Deshalb ist es stets sinnvoll, sich zwecks Erkennens möglicher Muster mit der Geschichte eines Technischen Systems auseinander zu setzen, und dann die technisch meist veralteten Lösungen unter Verwendung heutiger Mittel und Methoden zu substituieren. Dies setzt voraus, dass die jeweilige Aufgabe nach wie vor aktuell ist, woran bei unserem Toiletten-Beispiel ja keinerlei Zweifel besteht. Besonders in Katastrophensituationen ist es vorteilhaft, wenn die jeweils erforderlichen Gegenmaßnahmen automatisch, ohne Fremdenergie, unter direkter Nutzung der mit der Katastrophe bzw. dem „Katastrophenmedium“ verbundenen Naturkräfte wirken, gemäß dem Prinzip „Umwandeln des Schädlichen in Nützliches“. Beispielsweise hat eine Hamburger Firma die Erfahrung gemacht, dass bei einem Starkregen viel Wasser in ihre Tiefgarage eindrang. Da sich das Unternehmensarchiv auf gleicher Ebene befindet und für den Wiederholungsfall Schlimmes befürchtet wurde, war schnelles Handeln gefragt. Die Firma entschloss sich zum Einbau eines Klappschotts am Zugang der Tiefgarage. Das Regenwasser wird im gesamten Öffnungs‐ bereich durch die Klappschott-Wanne aufgenommen. Die Auftriebskraft des Wassers hebt das Klappschott an. Mit Federkraft wird es in die Senkrechte geklappt und gegen die Dichtung gedrückt. Ein möglicher Stromausfall interessiert nicht, das System benötigt keinen Strom. Auf Sensoren wurde verzichtet. Damit ist sichergestellt, dass das Klappschott nur dann auslöst, wenn genügend Wasser in die Wanne eingelaufen ist (VDI-Nachrichten 2006). Eigene Beispiele zur erfinderischen Nutzung des Von-Selbst-Prinzips habe ich in meinen Büchern „Systematisches Erfinden“ (Zobel 2006 a) und TRIZ FÜR ALLE (2006 b) veröffentlicht. Diese Beispiele sollen hier nicht noch einmal im Detail wiederholt werden. Jedoch sei die bei den dort beschriebenen Erfindungen wirkende Kraft angegeben. Die saugende Wir‐ kung einer „hängenden“ bzw. langsam herabströmenden Flüssigkeitssäule kann für automatisches Filtern (Zobel et al., Pat. 1979/ 1980), automatisches Eindampfen (Zobel u. Jochen, Pat. 1982/ 1984) sowie automatisches Entgasen (Zobel et al., Pat. 1984/ 1985) gleichermaßen vorteilhaft genutzt werden. Im jeweiligen Prozess wird völlig auf den Einsatz von Vakuumpumpen verzichtet. Das Medium, welches hergestellt werden soll (Filtrat, Destillat, entgastes Wasser), erzeugt die Triebkraft zu seiner - beschleunigten - Herstellung jeweils s e l b s t. 186 3 Methoden und Praxisempfehlungen <?page no="187"?> Auch die Entschäumung eines gasenden Reaktionsmediums fällt unter die „Von Selbst“-Kategorie. Wird schaumfreies Gas benötigt, und versagen die herkömmlichen Entschäumungsmittel, so kann der stoßweise Austritt des Gases durch eine „Bubbler“-Tauchung Abhilfe schaffen. Die entgegen der Strömungsrichtung des Gases wirkenden Druckstöße (hervorgerufen durch den - Blase für Blase - gegen den Widerstand der Wassersäule erfolgenden stoßweisen Austritt des Gases) führen dazu, dass der Schaum zwar im Rhythmus der Gasstöße pulsiert, nicht aber bis in das Gasaustrittsrohr gelangen kann. Genutzt haben wir das Verfahren jahrzehntelang bei der Herstellung von Natriumhypophosphit aus Phosphorschlamm (Zobel, Pat. 1976/ 1980). Abschließend seien noch zwei Beispiele zur Selbstorganisation von Stof‐ fen bzw. Produkten behandelt. In Hannoversch Münden gibt es neben anderen Sehenswürdigkeiten den so genannten „Hagelturm“ zu besichtigen. In ihm wurde früher Bleischrot hergestellt. Ganz oben im Turm wurde Blei geschmolzen. Die Schmelze wurde auf ein Sieb gegossen. Die austretenden Bleitropfen ziehen sich dann während des freien Falles unter der Wirkung der Oberflächenspannung von selbst zu exakten Kügelchen zusammen. Unten angekommen sind sie erstarrt, und damit sind die Schrotkugeln - fast alle in Normgröße - fertig. Das genau gleiche Prinzip wird bei der technischen Herstellung von Harnstoff noch heute weltweit angewandt. Die Harnstoffschmelze wird auf bis zu 72 m hohe so genannte Prilltürme gepumpt und dort mit zentrifu‐ genähnlichen Apparaten zu Tropfen zerteilt. Diese fallen dem von unten eintretenden Luftstrom entgegen, und nehmen dabei exakt Kügelchenform an. Im erstarrten Zustand unten angekommen, wird das Produkt in den Speicher gefahren. Der Durchmesser dieser so genannten Prills beträgt üblicherweise ca. 2 mm. Die Weltjahresproduktion derart produzierten Harnstoffs, der überwiegend als Düngemittel Verwendung findet, liegt bei vielen Millionen Tonnen. Das Von Selbst-Prinzip hängt, wie bereits zu Beginn dieses Abschnittes dargelegt, sehr eng mit der allen Kreativen sympathischen Forderung nach unbedingter Einfachheit zusammen. Betrachten wir jedoch die Entwicklung eines typischen Technischen Systems, so sehen wir leider nur allzu oft, dass dessen Entwicklung in Richtung immer komplizierterer Verfahrensweisen bzw. Konstruktionen verlaufen ist. Wünschenswert wäre aber, dass die Entwicklung direkt vom Primitiven zum Einfachen verliefe. In der Realität hingegen sehen wir uns 187 3.4 Ausgewählte einfache Lösungsstrategien <?page no="188"?> meist mit der Aufgabe konfrontiert, allzu kompliziert geratene Systeme vereinfachen zu müssen, d. h. vom Komplizierten zum raffiniert Einfachen zu entwickeln, ohne eine Rückentwicklung zum Primitiven zu praktizieren. Nicht ohne Grund waren die amerikanischen wie die deutschen Astronauten als Gäste auf der russischen Raumstation „Mir“ voller Bewunderung für die robuste „Russentechnik“ und die hemdsärmelige Art der russischen Stammbesatzung, im Reparaturfalle damit umzugehen. Auch ich habe wäh‐ rend eines Lizenzvergabe-Einsatzes in einem kasachischen Werk diese unbefangene und effiziente Art der Handhabung robuster Technik sehr zu schätzen gelernt. Die Forderung nach unbedingter Einfachheit ist nicht neu, und sie bezieht sich durchaus nicht nur auf die Belange der Technik. Auch für die Behand‐ lung geisteswissenschaftlicher Fragen wurde schon früh das Einfachheits‐ prinzip formuliert. So finden wir bereits im 14. Jahrhundert, bezogen auf Hypothesen und Erklärungsmöglichkeiten, das berühmte Prinzip „Occams razor“ („Ockhams Rasiermesser“, „Ockhams Skalpell“). Diese klassische Einfachheitsregel wird Wilhelm von Ockham (1280 - 1349) zugeschrieben. Sie lautet im Original: „Entia non sunt multiplicanda sine necessitate“. Ockham selbst hat allerdings diese Formulierung nicht wortwörtlich ge‐ braucht, sondern sie nur sinngemäß in seinen Schriften verwendet. Der Satz in oben angegebener Form geht wohl eher auf J. Clauberg (1622-1656) zurück. Er lautet im Deutschen, sehr frei übersetzt: „Ohne Notwendigkeit sollte man nicht unnötig viele Erklärungsversuche einsetzen“. Gemeint sind: nicht unnötig komplizierte Erklärungsversuche, bevor nicht die einfachen geprüft sind. Heute würde man das so ausdrücken: „Von mehreren Theorien ist die einfachste allen anderen vorzuziehen“. Übrigens hat Ockham diesen Gedanken auch auf die Erklärung von Wun‐ dern angewandt, und sich damit arg in Gefahr begeben. Wenn man es, so ließ er seine Leser wissen, erst einmal mit den einfachen Erklärungen versucht, erweist sich so manches „Wunder“ als mit natürlichen Mitteln erklärbar. Der an Wundern interessierte Klerus wollte diesen einfachen Gedankengang aber unterdrücken, und hätte Ockham am liebsten in der für Ketzer damals praktizierten Weise ausgeschaltet. Sinngemäß sollte Ockhams Rasiermesser jedenfalls bei der Entwicklung neuer Technischer Systeme unbedingt berücksichtigt werden. 188 3 Methoden und Praxisempfehlungen <?page no="189"?> Dies wurde, auch wenn er Ockham nicht zitiert, von Carl Friedrich Flögel bereits im Jahre 1760 erkannt. In seinem berühmten Werk „Einleitung in die Erfindungskunst“ (Flögel 1760, S. 21) finden wir folgenden beherzigenswer‐ ten Abschnitt, dem nichts hinzuzufügen ist: „Der leichteste Weg im Erfinden ist dem schwersten vorzuziehen. Den Beweiß dieses Satzes kann uns Hippocrates geben: Ars longa, vita brevis. Das menschliche Leben ist so kurz, dass man als ein Thor handeln würde, wenn man sich selbst durch beschwerliche Wege die Einsicht der Warheit verzögern wollte; und die Warheiten sind von solcher Menge, dass es ungereimt ist, sich den Weg zu den übrigen zu verschließen, weil man ohne Noth zu lange an einer hängt. Unterdeßen hat es doch wunderliche Köpfe genug, die lieber den weitläufigen und beschwerlichen als den kurzen und ebenen Weg erwählen. Kann man ihnen nicht das Vergnügen lassen von Berlin nach Breßlau durch die crimmische Tartarei zu reisen? “ Heute ist die Versuchung für den Ingenieur, sich unter Einsatz aller neuen technischen Möglichkeiten regelrecht auszutoben, besonders verlockend. Die Folgen sind bekannt. Der ADAC meldet, dass die meisten Autopannen auf das Versagen irgendeines der viel zu zahlreichen - und nicht immer zwingend erforderlichen - elektronischen Bauelemente zurückzuführen sind. Für den anspruchsvollen Kreativen sollte jedenfalls das Einfachheits‐ prinzip stets als Korrektiv, gewissermaßen im Hinterkopf, wirken. Zwar wird noch immer viel zu kompliziert gedacht, entwickelt und gebaut, jedoch beginnt sich die Einstellung - jedenfalls theoretisch - langsam zu ändern. In seinem Artikel „Die Kraft des Einfachen“ bringt Deysson das Problem auf den Punkt: „Wer möchte in einer Gesellschaft, die Einfachheit mit Einfältigkeit verwechselt und die das Komplizierte anbetet, schon als Einfacher, als Simpel dastehen? “. Deysson führt dann aus, dass Kompliziertheit immer auch Abhängigkeit und Verwundbarkeit nach sich ziehen und der Verlust der Einfachheit deshalb durchaus morbide Züge trage: „Die Dekadenz der großen Imperien und Kulturen setzte immer dann ein, wenn die Kompliziertheit ihrer Strukturen den Höhepunkt erreicht hatte. In der Arbeitswelt sitzt das Korsett der Kompliziertheit am engsten. Einfachheit ist Gewinn durch Reduktion und das diametrale Gegenteil von Primitivität, mit der sie zuweilen verwechselt wird“ (Deysson 1999). 189 3.4 Ausgewählte einfache Lösungsstrategien <?page no="191"?> 4 Fehlermöglichkeiten und Denkfallen Dieses Kapitel wird uns mit zahlreichen Fehlermöglichkeiten und Fallen vertraut machen, denen sich der Erfinder bei seiner Arbeit ausgesetzt sieht. Manches mag banal klingen, aber bei selbstkritischer Betrachtung wird der Leser die meisten Hinweise wohl nützlich finden. Selbstverständlich ist eine Behandlung von typischen Fehlern und Denk‐ fallen stets subjektiv; auch erhebt dieses Kapitel keinen Anspruch auf Vollständigkeit. Dennoch war ich bemüht, die nach meiner Erfahrung wichtigsten Punkte im Zusammenhang darzustellen. 4.1 Das Unterschätzen der Systemanalyse Befragen wir den Mann auf der Straße, was einen Kreativen wohl auszeich‐ nen mag, so wird die Antwort meist lauten: „Der Kreative hat eben rein zufällig, aus dem Bauch heraus, mehr und bessere Einfälle als ein gewöhnlicher Mensch“. Diese Vorstellung ist - nicht nur beim Mann auf der Straße - dermaßen tief verwurzelt, dass es schwer fällt, die zweifellos existieren‐ den methodischen Momente des kreativen Arbeitens herauszufinden und wirksam zu vermitteln. Hinzu kommt, dass die Literatur zum Phänomen der Kreativität meist darauf hinausläuft, dass der „göttliche Funke“ eben doch alles entscheidet („Man hat’s, oder man hat’s nicht“). Diese These ist bevorzugt zu hören, wenn sich Künstler, Soziologen oder Psychologen zum Thema äußern. Versucht hingegen ein Naturwissenschaftler oder Techniker das Kreativi‐ tätsphänomen zu beschreiben, so beobachten wir - neben mancherlei Über‐ gängen - zwei Extremanschauungen. Die eine wird von dem berühmten Ingenieur und Schriftsteller Max Eydt repräsentiert. Eydt, der in der zweiten Hälfte des 19. Jahrhunderts weltweit als Pionier der Dampfpflug-Technik wirkte und zahlreiche Patente hielt, war dem Gedanken des „göttlichen Funkens“ durchaus nicht abgeneigt. Vielleicht kam seine schriftstellerische Begabung, die sich in heute noch geschätzten Novellen aus dem Technik- Bereich („Die Brücke am Tay“) widerspiegelt, dieser schmeichelhaften An‐ schauung sehr entgegen. <?page no="192"?> Auf der anderen Seite der Skala finden wir den Altmeister des Systema‐ tischen Erfindens G. S. Altschuller, dessen Methodik ich in vorliegendem Buch erläutert, modifiziert und mit Beispielen belegt habe. Altschuller ging davon aus, dass der schöpferische Prozess nichts Un‐ verständliches hat, sondern mehr oder minder nachvollzogen und damit lehr- und erlernbar gemacht werden kann - wie im Abschnitt 3.1.2 be‐ schrieben. Wiederholungen wollen wir uns deshalb, mit einer Ausnahme, ersparen. Diese Ausnahme betrifft die Systemanalyse als absoluten und unverzichtbaren Ausgangspunkt jeglichen technisch-kreativen Bemühens. Altschuller hat, wie wir beispielsweise am ARIZ 77 sehen, der Systemanalyse hohe Bedeutung beigemessen. Die Betonung der systemanalytischen Stufe war allerdings zu Beginn seiner Untersuchungen, in den fünfziger Jahren des vorigen Jahrhunderts, für Altschuller zunächst noch nicht unbedingt vorrangig. Das wird klar, wenn wir uns die TRIZ-Entstehungsgeschichte noch einmal kurz vor Augen führen. Erinnern wir uns: Altschuller hatte bemerkt, dass sich in der Patentliteratur, unabhängig von der Branche, immer wieder die gleichen Prinzipien finden, und er schloss daraus, dass sich diese Prinzipien gleichermaßen auch zum Lösen neuer Aufgaben eignen müssten. Er entwickelte deshalb in seinem jugendlichen Eifer die dazu benötigten Lösungsinstrumente, beginnend mit der Prinzipientabelle (Tab. 4) samt Zuordnungsmatrix. Der Erfolg beim Einsatz dieser Instrumente hängt nun davon ab, ob die zu lösenden Aufgaben bereits klar definiert sind. Der Weg von der diffusen zur klaren Aufgabenstellung ist jedoch in den älteren Fassungen des ARIZ nur unzureichend beschrieben. Die elementaren syste‐ manalytischen Schritte wurden zunächst, bei unklarer Ausgangssituation, nicht detailliert genug entwickelt. Problemdefinition, Problemidentifika‐ tion, Problemklassifizierung und Problemstrukturierung kamen in solchen Fällen - die Rede ist hier noch immer von den älteren ARIZ-Varianten - zu kurz. Kritisch und zugleich konstruktiv eingestellte Methodiker erkannten diesen partiellen Mangel und machten auf die damit verbundene Gefahr aufmerksam: Wird bei schlecht definierten Problemen zu wenig Sorgfalt auf die Präzisierung der Aufgabenstellung gelegt, so besteht die Gefahr, dass statt der eigentlichen Aufgabe eine Scheinaufgabe oder eine unzulässig ein‐ geengte („überbestimmte“, „vergiftete“) Aufgabenstellung bearbeitet wird. Wir haben es mit einem wohl überwiegend subjektiven Phänomen zu tun. Es ist durchaus verständlich, dass - nach ungefährer Benennung eines Problems - fast jeder schnell erklärt, er habe die Aufgabe verstanden, und 192 4 Fehlermöglichkeiten und Denkfallen <?page no="193"?> wolle nun sofort mit der Suche nach passenden Lösungen beginnen. Hin‐ zukommt, dass die gängige Kreativitätsliteratur (siehe 3.1.1) den Eindruck erweckt, Quantität schlage in Qualität um, es komme also nur auf die schnelle Produktion möglichst vieler Ideen an. Diese irrige Annahme führt aber, wie bereits beschrieben, in den meisten Fällen in die Sackgasse oder zu drittklassigen Lösungen. Ausgehend von dieser Erkenntnis haben in den achtziger Jahren Rind‐ fleisch und Thiel als systemanalytisch orientierte Hilfe für anspruchsvolle Erfinder das „Programm zum Herausarbeiten von Erfindungsaufgaben und Lösungsansätzen in der Technik“ entwickelt (Rindfleisch u. Thiel 1986, 1989). Als Quellen benennen die Autoren: Erfahrungen aus mehreren KDT-Erfin‐ derschulen (KDT = DDR-Pendant zum VDI), eigene Vorarbeiten, system‐ wissenschaftliche Studien von Koch sowie insbesondere die Erfindungs‐ methodik von Altschuller. Praxiserfahrungen wurden von den Autoren in einer didaktisch-methodisch orientierten Publikation zusammengefasst (Rindfleisch u. Thiel 1994). Das Programm besteht aus zehn Schritten, die ich nachfolgend in Kurz‐ fassung sinngemäß wiedergebe: I. Das Gesellschaftliche Bedürfnis. Vorläufige Systembenennung (Start der Systemanalyse) Welches spezielle Gesellschaftliche Bedürfnis liegt vor? Wie wird ver‐ gleichbaren Bedürfnissen in anderen Ländern entsprochen? In welches Netz von Bedürfnissen ist das vorliegende spezielle Bedürfnis eingebunden? Wann und wie entsteht es, wie hat es sich entwickelt? Sind Tendenzen erkennbar? Welche Anforderungen, Bedingungen und Erwartungen beste‐ hen? Was ist davon subjektiv, was objektiv? Bilde Zielgrößen nach den Kriterien: Zweckmäßigkeit, Wirtschaftlichkeit, Beherrschbarkeit, Brauch‐ barkeit II. Stand der Technik. Analyse des Technischen Systems (Analyse einer Startvariante) Welches Prinzip ist am besten für die Realisierung der Zielgröße geeignet? Definition der notwendigen Funktionseigenschaften der in Betracht zu ziehenden technischen Mittel gemäß Zielgröße(n). Bilde eine Funktionsein‐ heit aus Elementarfunktion und geeignetem Operator: Wie, worauf, womit und wozu ist auf das Technische System (Objekt) einzuwirken? Ordne die nach dem Stand der Technik bekannten Lösungen. Prüfe, ob durch Übernahme bekannter bzw. Bildung neuer, funktionell vorteilhafter Kombi‐ 193 4.1 Das Unterschätzen der Systemanalyse <?page no="194"?> nationen Verbesserungen zu erreichen sind, die den Zielgrößen möglichst nahekommen. Wähle die vorteilhafteste Basisvariante aus. Beschreibe Ein- und Ausgangsgrößen nach dem black-box-Prinzip. Welche Wirkprinzipien bestimmen das Funktionieren der Basisvariante? Enthält das Technische System überflüssige Elementarfunktionen? Welche Nebenwirkungen sind unmittelbar durch die Hauptfunktion bedingt? Gibt es andere Wirkprinzi‐ pien zur Realisierung der Hauptfunktion? Was hindert an der Einführung bekannter Lösungen in das System? Welche Funktionen können schädliche Nebenwirkungen unterdrücken oder in nützliche verwandeln? III. Das Operationsfeld des Erfinders Welche Teilsysteme sind, aus welchen Gründen auch immer, einer Verän‐ derung nicht zugänglich? Welche Komponenten des Umfeldes sollten in die Systembetrachtung einbezogen werden? Wie ist im Ergebnis der bisherigen Analyse das technische System neu abzugrenzen? Welches Teilsystem bedarf am dringendsten der Verbesserung und stellt in seiner gegenwärtigen Form zugleich die entscheidende Barriere dar? Präzise Analyse dieses eingegrenzten Teilsystems, Wirkungskette seiner Elementarfunktionen. IV. Der Technisch-Ökonomische Widerspruch Bestimme den technisch-technologischen Parameter, der den stärksten Einfluss auf die Effektivität gemäß Zielgröße hat. Lässt sich durch Variation der Führungsgröße eine erhebliche Gesamtverbesserung erzielen? Falls ja, liegt eine Optimierungsaufgabe, falls nein, eine erfinderische Aufgabe vor. Warum ist das technisch-ökonomische Problem erst heute aktuell? Die historische Entwicklung ist zu betrachten, die „Lebenslinie“ des Systems zu analysieren. Wie lautet der dem Problem zugrunde liegende Technisch-Öko‐ nomische Widerspruch? V. Der unerwünschte (schädliche technische) Effekt als Grundlage des Technisch-Ökonomischen Widerspruches Welcher entscheidende Parameter wird bei Variation der gewählten Füh‐ rungsgröße negativ beeinflusst? Beschreibe diesen unerwünschten Effekt unter allen wichtig erscheinenden Aspekten. Ist es ein Teilsystem, das die Entwicklungsschwachstellen enthält? Sind es mehrere? Wie wird derjenige unerwünschte Effekt verursacht, der den TÖW unmittelbar hervorruft? Ist der unerwünschte technische Effekt mit vorhandenen Mitteln behebbar? 194 4 Fehlermöglichkeiten und Denkfallen <?page no="195"?> Liegt vielleicht nur Betriebsblindheit vor? Falls ja, so lässt sich die Aufgabe hier bereits lösen, falls nein, muss weitergearbeitet werden. Vl. Das Ideale Endresultat als Orientierung auf dem Weg zum Problemkern (Anstoß zu vertiefter Systemanalyse) Welches Verhalten bzw. welche Eigenschaften müsste das Teilsystem bzw. müssten die Teilsysteme aufweisen, damit der unerwünschte Technische Effekt nicht (mehr) auftritt? Was hindert am Erreichen des Idealen Endresul‐ tats (IER)? Welche Eigenschaften des Systems bewirken die Abweichungen vom Ideal? Suche (scheinbare) Paradoxa, die den Widerspruch schärfer zu formulieren gestatten (z. B. „schwingende Ruhe“, „schreiende Stille“, „rasender Stillstand“). Ist vorstellbar, dass sich das IER „von selbst“, ohne Aufwand, erreichen lässt? Versuche zu erreichen, dass die Formulierung des IER die Wörter „von selbst“ enthält. VII. Der Technisch-Technologische Widerspruch Welche Struktureigenschaften und/ oder Wirkprinzipien sind bestimmend für die Widersprüche zwischen den realen Systemmerkmalen und dem IER? Auf welchem Technisch-Technolgischen Widerspruch beruht das Problem? Welche einander jetzt ausschließenden, aber notwendigen Forderungen bilden den Technisch-Technologischen Widerspruch? Stelle den Erforder‐ nissen der einen Komponente die mit konventionellen Mitteln nicht reali‐ sierbaren Erfordernisse der anderen Komponente gegenüber! Stehen die Mittel vielleicht sogar problemlos zur Verfügung, ist also nur ein Vorurteil der Fachwelt zu beseitigen? VIII. Der Technisch-Naturgesetzmäßige Widerspruch Was scheint zunächst den Naturgesetzen zu widersprechen, wenn ich versuche, den Technisch-Technologischen Widerspruch zu lösen? Welche Paarung einander objektiv ausschließender Wirkungen wurde bisher über‐ sehen? Prüfe, ob bekannte oder erst kürzlich bekannt gewordene naturge‐ setzmäßige Effekte einzeln/ kombiniert das IER zu erreichen gestatten. IX. Die Strategie zur Widerspruchslösung Prüfe, ob die Lösung des Technisch-Technologischen Widerspruchs prinzi‐ piell in einer Veränderung des Verfahrensprinzips oder in einer Veränderung des Funktionsprinzips zu suchen ist. Wende nunmehr die Prinzipien zum Lösen Technischer Widersprüche an. Welche Lösungsprinzipien wendet die Natur beim Vorliegen ähnlicher Widersprüche an? Formuliere die Erfindungsaufgabe so, dass die Lösung des Problems ohne oder fast ohne 195 4.1 Das Unterschätzen der Systemanalyse <?page no="196"?> Zusatzaufwand möglich erscheint, d. h., dass die bereits vorhandenen Systemeigenschaften das Problem im Wesentlichen „von selbst“ zu lösen gestatten. X. Die internationale Entwicklung und die eigene Strategie (bzw. die eigene Erfindung als Schrittmacher der internationalen Entwicklung) Wo tritt das Problem in gleicher oder ähnlicher Form auf ? Wie wird es von der Konkurrenz gesehen, welche Schlüsse wurden anderswo bereits gezogen, welche Lösungen wurden erprobt bzw. welche Lösungsansätze mit welchem Erfolg versucht? Dehne die Betrachtung möglichst auch auf fach‐ fremde Gebiete aus, sofern du Analogien erkennst. Wie muss der konzipierte und nunmehr mit dem internationalen Stand konfrontierte Lösungsansatz ergänzt/ variiert werden? Experimente, Beschaffen noch fehlender Informa‐ tionen, Erarbeiten der technisch realisierbaren erfinderischen Lösung. Dieses Programm zum Herausarbeiten von Erfindungsaufgaben und Lösungs‐ ansätzen (Rindfleisch u. Thiel 1986, 1989) legt somit den Schwerpunkt auf die überwiegend systemanalytischen Stufen des erfinderischen Vorgehens. Dem entsprechend wichtig sind Grundkenntnisse auf dem Gebiet der Prozessanalyse, denn zunächst muss der vorhandene Prozess gründlich analysiert werden, um ihn überhaupt beurteilen, einordnen und bewerten zu können (Programmstufen I bis VIII). Wesentliches Element ist die Ermittlung des schädlichen Effektes, d. h. das Herausfinden der physikalischen Ursache für die Notwendigkeit des Eingreifens. Erst dann kann auf Basis der Widerspruchsdialektik an die Veränderung bzw. grundlegende Verbesserung des Prozesses gedacht wer‐ den, wobei wiederum die Von Selbst-Lösungen, basierend auf den sich für derartige Lösungen anbietenden Eigenschaften des betrachteten Systems, bevorzugt angestrebt werden (IX und X). Insgesamt sind in diesem zehnstufigen Programm die in der Endphase zur erfinderischen Lösung führenden Schritte (IX und X) deutlich unterre‐ präsentiert, aber dies ist von den Autoren aus oben dargelegten Gründen beabsichtigt. Ohne penible Systemanalyse und präzisierte Aufgabenstellung ist keine überdurchschnittliche Lösung zu erwarten. Die präzise Formulie‐ rung der eigentlichen Aufgabe zeigt uns dann unmittelbar, in welch eng begrenztem Feld die Lösung zu suchen ist. Zwar wende ich in der Praxis das beschriebene System nicht für beliebige Aufgaben in allen Einzelheiten wortwörtlich an, aber für sehr schwierige Fälle ist es eine gute und verlässliche Hilfe. Natürlich bedeutet der Umstand, 196 4 Fehlermöglichkeiten und Denkfallen <?page no="197"?> das wir hier acht überwiegend systemanalytische und nur zwei überwiegend System schaffende Stufen vor uns haben, nicht unbedingt, dass 80 % der Arbeit systemanalytischer Natur zu sein haben, dies schon deshalb nicht, weil der anteilige Aufwand für die einzelnen Stufen durchaus nicht immer gleich ist. Jedoch schätze ich, dass der Praktiker mehr als die Hälfte seines Gesamt‐ aufwandes auf die Systemanalyse verwenden sollte. Das o. a. Programm ist in seiner Originalfassung (Rindfleisch u. Thiel 1986, 1989) sehr umfang‐ reich und enthält zahlreiche Teilschritte, so dass Anfänger nach eigenen Erfahrungen (versuchsweise Anwendung des Programms in Erfindersemi‐ naren) manchmal überfordert sind. Dennoch haben Rindfleisch u. Thiel die Methodik mit diesem Programm ohne Zweifel wesentlich bereichert. Dies gilt, wie erwähnt, ganz besonders für „harte Nüsse“, bei denen einfachere Programme schlicht versagen. Für weniger schwierige Fälle hat sich die von Herrlich für das Präzisieren erfinderischer Aufgabenstellungen empfohlene verkürzte Fassung eines Frage-Algorithmus bewährt (Herrlich 1988). Es handelt sich dabei um „W“-Fragen, in denen wir wesentliche ARIZ-Elemente erkennen: ■ Was muss erreicht werden? Welche Forderungen sind an das Prozessergeb‐ nis zu stellen? Welche heutigen und welche zukünftigen Bedürfnisse gibt es? ■ Was steht zur Verfügung? Was wird benötigt? ■ Unter welchen Umständen verläuft der Prozess? Welche Bedingungen sind zu beachten oder einzuhalten? ■ Welche positiven Nebenwirkungen sollen bzw. werden auftreten? Welche schädlichen Wirkungen müssen vermieden werden? ■ Mit welchen Verfahren (materieller Arbeitsprozess) bzw. mit welcher Methode (gedanklicher Arbeitsprozess) ist das Überführen der Stoff-, bzw. Energie-, bzw. Informationseingänge zu vollziehen? ■ Welche Operationen erfordert das Verfahren oder die Methode? ■ Welche Zustände müssen erreicht werden? ■ Wie ist zum Zwecke der gezielten Zustandsänderung einzuwirken? ■ Mit welchen Mitteln können die Einwirkungen gewährleistet werden? ■ Welche neuartigen Stoffe, Energiearten, Informationen sind zukünftig verfügbar? ■ Worin besteht das Ideal? ■ Welche Widersprüche verhindern das Erreichen des Ideals? 197 4.1 Das Unterschätzen der Systemanalyse <?page no="198"?> Sobald eine Frage nicht eindeutig beantwortet werden kann, wird sie als „Defekt“ gekennzeichnet und fortlaufend nummeriert in der Defektliste erfasst. Dabei handelt es sich hier nicht um Defekte im technischen Sinne, sondern um Informationsdefekte bzw. Kenntnislücken. Nun wird systematisch danach gefragt, wo Entwicklungsschwachstellen auftreten oder zukünftig erwartet werden können. Eine solche Analyse sollte zweckmäßig im Team am Flipchart oder der Wandtafel durchgeführt werden. Nur so lässt sich erreichen, dass der Methodiker nicht als allein und abgehoben an der Tafel operierender Guru betrachtet, sondern dass die bearbeitete Aufgabe als „unsere“ Aufgabe angesehen, die Lösung mit Spannung erwartet und gemeinsam aktiv angestrebt wird. Auf dem Wege dahin ist festzulegen, wer welche Kenntnislücke durch gezieltes Informieren behebt und wann die Analyse auf Basis der nun erweiterten Kenntnisse fortgesetzt wird. Spontan geäußerte Lösungsideen werden zunächst nicht weiter diskutiert, sondern in der „Ideenbank“ notiert und so gespeichert. Sollen die zwischenzeitlich auftauchenden Spontanideen nicht gespeichert, sondern sofort geprüft werden, so sind, ebenfalls sofort, stets folgende Kontrollfragen zu beantworten: ■ Entspricht die Richtung noch der Aufgabenstellung? ■ Entferne ich mich nicht doch vom Idealen Endresultat? ■ Taucht nicht etwa doch wieder der unerwünschte Effekt (oder ein weiterer unerwünschter Effekt) auf ? ■ Verspricht die Idee tatsächlich die Lösung des Hauptwiderspruchs? Zusammenfassend ist zu sagen, dass fast alle Fehler und Irrtümer bei der Bearbeitung einer nur kreativ zu lösenden Aufgabe durch Unterschätzung der Systemanalyse entstehen. Es gibt, wie gesagt, verschiedene Möglichkei‐ ten, dieser Gefahr zu begegnen. Ob wir nun bevorzugt mit dem ARIZ 68, dem ARIZ 77 (3.1.2), der Innovationscheckliste, dem methodischen Minimum (3.3.4, Abb. 9), dem Programm zum Herausarbeiten von Erfindungsaufgaben und Lösungsansätzen nach Rindfleisch und Thiel (s. o.) oder der vereinfach‐ ten Frageliste nach Herrlich (s. o.) arbeiten, hängt vom Schwierigkeitsgrad der zu lösenden Aufgabe sowie von unseren persönlichen Vorlieben ab. Ver‐ mieden werden muss jedoch auf jeden Fall das unvorbereitete, wilde Drauflos- Arbeiten. Bei der Betreuung von Unternehmensthemen habe ich die Erfahrung gemacht, dass die Workshop-Teilnehmer nach Erläuterung der Altschul‐ ler-Prinzipien-Liste (S. 49-54) sowie der Zuordnungsmatrix ganz zappelig 198 4 Fehlermöglichkeiten und Denkfallen <?page no="199"?> werden, unverzüglich irgendwelche Widersprüche - leider meist nicht die zutreffenden - formulieren, und dann mithilfe der Matrix und der Prinzipienliste hektisch nach schnellen Lösungen suchen. So sollte man aber nicht vorgehen. Es ist dann die Kunst des Moderators, die Teilnehmer wieder „zurückzuholen“, um die Systemanalyse zu vervoll‐ ständigen. Ich habe mich in den Abschnitten 3.1.2 und 4.1 in dieser Frage - nicht ohne Grund - mehrfach wiederholt. Meine eigenen Fehler bei der Bearbeitung kreativer Aufgaben waren fast immer mit einer nicht sorgfältig genug ausgeführten Systemanalyse zu erklären, und ich möchte meinen Lesern solche Negativerlebnisse möglichst ersparen. Hinzu kommt, dass die berühmte Zuordnungs-Matrix, mit deren Hilfe das „richtige“ Lösungsprin‐ zip üblicherweise gesucht wird, ein nach meinen Erfahrungen ungeeignetes Werkzeug ist (! ). Wer an dieser harten Aussage zweifelt, sei auf ein Buch zu speziell diesem Thema („Erfindungsmuster“) verwiesen (Zobel u. Hartmann 2016). 4.2 Wirklichkeit ist mehr als ein Ausschnitt der Wirklichkeit Den meisten Menschen fällt es ganz offensichtlich schwer, sich vom Äuße‐ ren eines Objektes nicht beeinflussen zu lassen. Unsere Physiologen lehren, dass etwa 80 % aller Menschen überwiegend visuell orientiert sind. So entstehen Assoziationen fast immer auf Basis dessen, was wir sehen. Das alte chinesische Sprichwort „Ein Bild sagt mehr als tausend Worte“ drückt ganz kurz aus, wovon die Rede ist. Allerdings kommt es stets auf die Art der Bilder an. So muss davon ausgegangen werden, dass die uns täglich frei Haus gelieferten TV-Bilder unsere Vorstellungen von den jeweils gezeigten Dingen bzw. Vorgängen weit mehr beeinflussen, als uns lieb sein kann. Eine vermeintlich objektive Berichterstattung sagt wenig darüber aus, was wirklich passiert ist. Wenn eine protestierende Menge aus raffiniertem Gesichtswinkel gefilmt wird, kann es so aussehen, als seien Hunderte in Aktion. Real handelt es sich manchmal um kaum mehr als zwei Dutzend, die, vielleicht auch nur für ein vom Reporter spendiertes Trinkgeld, wild herumbrüllen. Auf unser Thema bezogen, lautet die Schlussfolgerung: Höchste Wach‐ samkeit, was das Äußere eines Objektes, einer Situation anbelangt! In meinen Seminaren verwende ich die Formulierung „Hypnotische Wirkung eines technischen Gebildes“. Sie scheint mir kaum übertrieben. 199 4.2 Wirklichkeit ist mehr als ein Ausschnitt der Wirklichkeit <?page no="200"?> Jedes Objekt wirkt auf uns zunächst durch sein Äußeres. So fällt es oft schwer, ein vorhandenes, im Prinzip einigermaßen funktionierendes System einfach auszutauschen. Wir sind eben an dieses System gewöhnt, und wenn daran etwas mal nicht funktioniert, so denken wir zunächst an Reparatur. Erst eine kritische Systemanalyse zeigt uns, dass die vom vorhandenen System ausgeführte Funktion (z. B. eine Transportfunktion) auch mit ganz anderen Methoden bzw. Apparaten ausgeführt werden könnte, oft vorteilhafter als zuvor. Diese Erkenntnis mag banal klingen, sie setzt aber voraus, zunächst einmal vom konkreten Transportaggregat (z. B. einem Transportband) zu abstra‐ hieren und die Funktion - das Transportieren - damit über das derzeitige konkrete Transportmittel zu stellen. Erst dann kann der Bearbeiter erken‐ nen, dass allein Funktionalität gefragt ist, und nicht etwa die Verbesserung des - vielleicht gar nicht mehr verbesserungsfähigen - derzeitigen Systems. Die nächsten Schritte sind dann klar. Sie basieren auf der Beantwortung folgender Fragen: Welche anderen Transportmöglichkeiten für das zu trans‐ portierende Gut gibt es, bzw. welche sind denkbar? Welche sind besser, welche schlechter geeignet, und warum? Lässt sich der Transport nicht auch nach dem Von Selbst-Prinzip durchführen (z. B., je nach den Eigenschaften des zu transportierenden Gutes, mithilfe der Schwerkraft, des Auftriebs, unter Nutzung der Kraft eines ohnehin vorhandenen strömenden Mediums? Muss überhaupt transportiert werden? Dies alles wirkt, wie gesagt, im Nachhinein reichlich banal. Dass jedoch der Mensch offenbar dazu neigt, sich vom jeweiligen System gleichsam „hypnotisieren“ zu lassen, wurde auch von anderen mit der Kreativitätslehre befassten Autoren sinngemäß festgestellt. Hinzu kommt, dass die meisten Menschen sich dem Gesamtsystem gegenüber „blind“ verhalten. Sie bemer‐ ken, höchst subjektiv, jeweils immer nur Teile des Systems, und erkennen oft noch nicht einmal die funktionsbestimmenden Hauptelemente. Als Beispiel sei das Bild „Six blind men meeting the elephant“ (Trolle 1993/ 1994, Abb. 28) angeführt: 200 4 Fehlermöglichkeiten und Denkfallen <?page no="201"?> Abb. 28 So sehen wir ein System: „Six blind men meeting the elephant“ (Trolle 1993/ 94) Fragt man den oberen Blinden, was denn ein Elefant sei, so wird er gewiss antworten: „Ein Hügel“. Der Mann links im Bild hält den Elefanten wohl eher für einen dicken Strick, der in der Mitte hingegen für eine Säule, der ganz rechts oben für einen großen Lederlappen. Nun sollten wir uns auf gar keinen Fall über die in Abb. 28 dargestellten Blinden erheben: Wir alle sind zunächst - auf die gezeigte Art - blind, wenn wir uns mit einem neuen System befassen. Was wir akzeptieren sollten, ist die unumgängliche Notwendigkeit, das System insgesamt, unter übergeordneten Gesichtspunkten, zu sehen und zu verstehen. Dies funktioniert, insbesondere bei technischen Systemen, grundsätzlich nur durch das Einschalten unseres Abstraktionsvermögens. 201 4.2 Wirklichkeit ist mehr als ein Ausschnitt der Wirklichkeit <?page no="202"?> 179 Fragt man den oberen Blinden, was denn ein Elefant sei, so wird er gewiss antworten: „Ein Hügel“. Der Mann links im Bild hält den Elefanten le, der ganz rechts oben für einen großen Lederlappen. Nun sollten wir uns auf gar keinen Fall über die in Abb. 28 dargestellten Blinden erheben: Wir alle sind zunächst - auf die gezeigte Art - blind, wenn wir uns mit einem neuen System befassen. Was wir akzeptieren sollten, ist die unumgängliche Notwendigkeit, das System insgesamt, unter übergeordneten Gesichtspunkten, zu sehen und zu verstehen. Dies funktioniert, insbesondere bei technischen Systemen, grundsätzlich nur durch das Einschalten unseres Abstraktionsvermögens. Abstraktion/ Verallgemeinerung, Modell, Theorie, Gesetz, Axiom, Modell erfinderischer Aufgaben ↑ ↑↑ ↑ ↓ ↓↓ ↓ ↑ ↑↑ ↑ ↓ ↓↓ ↓ Theoretische Deduktives Denken Verallgemeinerung ↓ ↓↓ ↓ ↑ ↑↑ ↑ Vom beobachteten Theorie als Vorhersage Phänomen zum für einen Praxisfall Modell ↓ ↓↓ ↓ ↑ ↑↑ ↑ Vom Einzelfall zum Vom allgemeinen zum allgemein gültigen konkreten Fall Gesetz ↑ ↑↑ ↑ ↓ ↓↓ ↓ Vom Modell zur konkreten Induktives Denken erfinderischen Aufgabe ↑ ↑↑ ↑ ↓ ↓↓ ↓ Praxisfall A, Experimentalbefund, Praxisfall B, Experimentalbefund, Beobachtetes Phänomen, Angewandtes Phänomen, Erfinderische Aufgabe A Erfinderische Aufgabe B Abb. 29 Grundmuster des wissenschaftlichen Denkens: Induktives und deduktives Denken Abb. 29 Grundmuster des wissenschaftlichen Denkens: Induktives und de‐ duktives Denken Wir erkennen erst dann das Grundsätzliche, Prinzipielle, Gesetzmäßige (und damit auch das Übertragbare) des betrachteten Systems. Die Zusam‐ menhänge werden uns in Abb. 29 verdeutlicht. Das induktive Denken versetzt uns in die Lage, das Übergeordnete, Gesetzmäßige, Prinzipielle eines Experimentalbefundes, eines Phänomens, und eben auch eines Systems zu erkennen. Sodann können wir mithilfe des deduktiven Denkens auf einen ganz anderen Befund - bzw. eben auch auf ein anderes System - schauen und entsprechend handeln. Indirekt bedeutet dies übrigens auch, dass das „andere“ System gar so verschieden vom Ausgangssystem nicht sein kann, sogar über prinzipielle Gemeinsamkeiten mit dem Ausgangssystem verfügen muss. 202 4 Fehlermöglichkeiten und Denkfallen <?page no="203"?> Die sich sofort einstellende Frage: „Warum so umständlich? Warum nicht direkt von A nach B, warum dieser lange Umweg? “ lässt sich leicht beant‐ worten. Einzeltatsachen oder technische Objekte werden, dies sei unter Bezug auf die sechs blinden Männer wiederholt, oft durch Äußerlichkeiten geradezu unkenntlich gemacht, was ihren wahren Charakter, ihren inneren Zusammenhang, das Prinzipielle, das Allgemeine im Besonderen anbelangt. Deshalb ist in aller Regel der induktive Schritt unerlässlich, um von der nunmehr gewonnenen höheren Warte aus erkennen zu können, dass B gar so verschieden von A nicht ist, bzw. sogar analog erklärt bzw. bearbeitet werden kann. Zwicky (1966, S. 11) meint zu dem beschriebenen Sachverhalt, „… dass die meisten Menschen nicht ohne weiteres imstande sind, in umfassenden Allgemeinheiten zu denken und weitere Perspektiven zu entwickeln. Die Mehrzahl hält sich am Konkreten fest und kann nur vom Speziellen zum Allgemeinen vordringen, während der umgekehrte Weg ohne vorangehende Anleitung kaum begehbar ist“. Genau diese Anleitung liefert uns Altschuller (3.1.2). Analog zu dem, was Francis Bacon „Beobachtung der Natur“ genannt hatte, extrahierte Altschul‐ ler zunächst den Patentfundus, d. h. die technische und schutzrechtliche Realität. Daraus „destillierte“ er durch Verallgemeinerung bzw. Abstraktion die Prinzipien zum Lösen Technischer Widersprüche (Induktiver Schritt). Diese bewusst allgemein formulierten Prinzipien werden nunmehr auf die Lösung vermeintlich ganz neuer Aufgaben, die jedoch aus der - induktiv gewonnenen - höheren Sicht nicht prinzipiell neu sind, erfolgreich ange‐ wandt (Deduktiver Schritt). Beim realen Denken gibt es in der zeitlichen und logischen Abfolge keine derart scharfe Trennung, wie sie Abb. 29 zeigt. Typisch sind Quer- und Rücksprünge. Deshalb ist es zweckmäßig zu wissen, wie das kreative Denken im Prinzip funktioniert, und wo man sich jeweils befindet. Der Kreative kann von solcherart strukturiertem Vorgehen nur profitieren. 4.3 Die Öko-Falle und das Wunschdenken Es ist inzwischen Mode geworden, unter der Öko-Fahne routiniert daher zu plappern und standardisierte Plattheiten zu äußern, insbesondere jene zu diffamieren, die Sachfragen naturwissenschaftlich klären wollen. Diese 203 4.3 Die Öko-Falle und das Wunschdenken <?page no="204"?> modische „Nicht-Diskussionstechnik“ kommt immer dann zum Einsatz, wenn eine vorgefasste Meinung durch naturwissenschaftliche Argumente in Frage gestellt werden könnte. Besonders unangenehm: Bestimmte Typen sind auch noch ausgesprochen stolz darauf, völlig unbelastet von naturwis‐ senschaftlichen Kenntnissen diskutieren zu können. Die Folge ist das kon‐ sequente Beibehalten bloßer Wunschvorstellungen. Besonders fatal wird es, wenn man dem Naturwissenschaftler auch noch eine ökologiefeindliche Grundhaltung unterstellt, die eigenen Vorurteile hingegen als der Weisheit letzter Schluss ansieht. Typisch ist auch, dass sich die einer vernünftigen Argumentation unzu‐ gänglichen Fundamentalökologen ganz allein für kreativ halten, logisch argumentierende Naturwissenschaftler hingegen als gestrig, konservativ, uneinsichtig und „von der Industrie gekauft“ diffamieren. So gesehen gibt es kaum Chancen, einen Konsens in diesen existenziell wichtigen Fragen zu erzielen. Wenn in nachfolgendem Abschnitt dennoch ein solcher Versuch unternommen wird, dann in der Hoffnung, dass Bei‐ spiele ihre eigene Sprache sprechen. Wir hatten im Abschnitt 3.4.8 das Waschmittelphosphat-Beispiel in einem anderen Zusammenhang bereits behandelt. Es passt genau hierher. Vor etwa vierzig Jahren zeigte sich, dass die - damals allein gebräuchlichen - phosphathaltigen Wasch- und Reinigungsmittel zwar hervorragend wirken, jedoch auch ihre Schattenseiten haben. Insbesondere betrifft dies eine nega‐ tive Nebenwirkung des in den Vorfluter gelangenden Abwassers, die als Eu‐ trophierung bezeichnet wird. Wir verstehen darunter die überproportionale Anregung des Algenwachstums durch Überdüngung. Die Algen wachsen jedoch nicht nur, sie sterben schließlich auch ab, sinken im Gewässer zu Boden und zersetzen sich dort unter Schwefelwasserstoffbildung. Der Fäulnisprozess verbraucht den im Wasser gelösten Sauerstoff. Die untere Wasserschicht enthält schließlich gar keinen Sauerstoff mehr; sie „stirbt“, was das normale, an den Sauerstoff gebundene Leben im Wasser anbelangt. Mit fortschreitender Eutrophierung breitet sich diese Zone immer mehr nach oben aus, bis das schwefelwasserstoffhaltige Wasser die Oberfläche erreicht und das Gewässer schließlich „umkippt“, d h., insgesamt nicht mehr als sich selbst regulierendes, gesundes Ökosystem funktionieren kann. Das äußere Zeichen ist ein dramatisches Fischsterben. Auslöser dieses Vorganges ist, wie gesagt, der Phosphateintrag in den Vorfluter. Phosphat ist zwar - ganz im Gegensatz zum elementaren gelben Phosphor - völlig ungiftig, es wirkt jedoch in der geschilderten Weise als 204 4 Fehlermöglichkeiten und Denkfallen <?page no="205"?> Düngemittel, und die sekundären Folgen des allzu nährstoffreichen Abwassers führen zum „Umkippen“ der Gewässer. Deshalb ist es notwendig, den Eintrag von Phosphat in den Vorfluter so zu verringern, dass die Eutrophierung unterbunden wird. Die Waschmittelkonzerne haben seinerzeit reagiert und die Entwicklung phosphatfreier Waschmittel betrieben. In groß angelegten Marketingkampagnen wurde dem Verbraucher eingeredet, dass er viel für die Umwelt tue, wenn er phosphatfreie Waschmittel kaufe. Die Kampagne wurde in einer Weise geführt, die den Verbraucher glauben ließ, Phosphat sei geradezu ein Gift, und so wurde der Begriff „phosphatfrei“ von den Marketingstrategen regelrecht als Synonym für „ökologisch gut“ aufgebaut. Kommen wir nun zur Realität. Sie sieht wesentlich anders aus. Phosphat ist, wie gesagt, alles andere als ein Gift. So könnte der Mensch ohne eine tägliche Aufnahme von etwa 4 g P (in Form von Phosphat) nicht überleben. Weit wichtiger ist aber im Zusammenhang mit der Eutrophierungsfrage ein anderer Gesichtspunkt. Phosphat ist, und dies wurde bereits 1844 durch Justus von Liebig entdeckt, Minimumfaktor. Das heißt: Um das Algenwachstum nicht mehr zu beschleunigen, dürfte fast gar kein Phosphat mehr in den Vorfluter gelangen. Die Phosphatfracht stammte aber seinerzeit nur zu einem Drittel aus den Waschmittelphospha‐ ten, zu einem weiteren Drittel aus den Fäkalien; das restliche Drittel ent‐ stammte den allzu kräftig gedüngten landwirtschaftlich genutzten Flächen (Ausspülungen nach Regenfällen). Um in einen Bereich zu kommen, in dem keine Eutrophierung mehr stattfindet, müssten aber um 90 % (! ) des Gesamt- Phosphats aus dem Abwasser entfernt werden; weniger brächte nichts, eben weil Phosphat Minimumfaktor ist. Die Vorstellung, dass sich allein mit einer etwa 30%igen Reduktion (durch Verzicht auf Waschmittelphosphate) etwas erreichen ließe, ist des‐ halb völlig verfehlt. Genau dies wurde aber vom Waschmittel-Marketing verschwiegen, obgleich es den Experten genau bekannt war. Was nun die Qualität der Waschmittel für ihren eigentlichen Verwen‐ dungszweck anbelangt, so lässt sich kurz und knapp sagen, dass polypho‐ sphathaltige Waschmittel besser sind als phosphatfreie. Eine gelungene Kombination aus Dispergiervermögen, Ionenaustauschfähigkeit (Komple‐ xierung) und Schmutztragevermögen ist es, die ein hochwertiges polypho‐ sphathaltiges Waschmittel auszeichnet. Hinzu kommt die Fähigkeit der Polyphosphate, die Wirkung der organischen Waschmittelkomponenten überproportional zu verstärken („Synergie“). 205 4.3 Die Öko-Falle und das Wunschdenken <?page no="206"?> Die alternativ produzierten phosphatfreien Waschmittel waren zunächst in fast allen Punkten den phosphathaltigen unterlegen. Einige der anstelle der Polyphosphate verwendeten Substitute erwiesen sich im Vorfluter sogar als toxisch für die Fischbrut. Andere Substitute trieben den Teufel mit Beel‐ zebub aus: Anstelle der Phosphat-Eutrophierung trat eine Eutrophierung durch alternativ eingesetzte Stickstoffverbindungen. Andere Komponenten der neuen Rezepturen sind wasserunlöslich, was im Zusammenhang mit einer Waschmittelflotte nun wahrlich nicht sinnvoll ist. Im Pausengespräch während eines Kongresses sagte einer der Experten spöttisch: „Wir haben unsere Kunden überredet, mit weißem Dreck zu waschen“. Die Entwicklung der neuen Rezepturen wurde allerdings konsequent fortgesetzt, so dass einige der schlimmsten Mängel inzwischen behoben werden konnten. Jedoch wurde, wie fachliche Insider und experimentierfreudige Hausfrauen wissen, die Qualität der polyphosphathaltigen Waschmittel noch nicht wieder erreicht. Zurück zur Eutrophierung: Wenn 90 % der Gesamtphosphatfracht elimi‐ niert werden müssen, so hilft nur eine Kombination aus erheblich verbes‐ serten Kläranlagen und disziplinierterem Düngen der Felder. Dieser Weg wurde inzwischen beschritten. Moderne Kläranlagen verfügen nicht nur über die „klassischen“ Stufen älterer Anlagen (mechanische und biologische Stufe), sondern über eine zusätzliche dritte Reinigungsstufe, in der die Aus‐ fällung des löslichen Phosphats in Form eines unlöslichen Niederschlages praktiziert wird. Diese Fällung entfernt 2/ 3 des Gesamt-Phosphates, nämlich das aus den Fäkalien stammende - in der biologischen Reinigungsstufe nicht abgebaute - Phosphat, sowie (falls vorhanden) die Waschmittelphosphate. Was bleibt, ist das restliche, aus der undisziplinierten Düngung der Felder stammende Drittel, dessen Reduktion durch ein vernünftiges Düngeregime gelingt. Erst damit ist das Phosphat-Eutrophierungsproblem gelöst. Dreistufige Kläranlagen sind in den industrialisierten Ländern inzwi‐ schen Standard. Es besteht somit keine Veranlassung mehr, an den phos‐ phatfreien Waschmitteln festzuhalten, zumal, wie oben dargelegt, die poly‐ phosphathaltigen Waschmittel einfach die besten sind. Dennoch findet das nunmehr mögliche „Zurückrudern“ nur zögernd oder gar nicht statt. Wahr‐ scheinlich sind dabei auch subjektive Gesichtspunkte mit im Spiel. Eine seit mehr als 40 Jahren aus Sicht der Konzerne erfolgreiche Marketingstrategie wird eben nur ungern aufgegeben. Hinzu kommt, dass die Waschmittel‐ konzerne den oben geschilderten Zusammenhang von Anfang an genau kannten, und dennoch argumentiert haben, Phosphat sei gewissermaßen des 206 4 Fehlermöglichkeiten und Denkfallen <?page no="207"?> Teufels. Ein Umsteuern im Marketing wäre deshalb mit einem erheblichen Glaubwürdigkeitsverlust verbunden. Diskutiert man nun dieses Thema mit Fundamentalökologen, so lehnen es die meisten bereits ab, genau zuzuhören. Schon wenn sich andeutet, dass Phosphat nicht einfach in die Schublade „schlecht“ gepackt werden kann, rasten sie aus. Sie weigern sich hartnäckig, den Unterschied zwischen dem hoch toxischen Phosphor und dem lebenswichtigen Phosphat zur Kenntnis zu nehmen. Die Rolle des Minimumfaktors bestreiten sie sowieso, da sie nur linear denken können bzw. wollen, so dass eine teilweise Reduktion - auch im gegebenen Zusammenhang - aus ihrer Sicht grundsätzlich ein „positiver Beitrag“ zu sein hat. Noch krasser wird es, wenn es um die Gentechnologie geht. Schlagzei‐ len, wie: „Österreich soll genfrei bleiben“, oder: „Wir bestehen darauf, auch künftig genfreie Tomaten zu bekommen“, aber auch: „Genhefe fürs Auto“ (Wirtschaftswoche 2006, Nr. 41) sind täglich - nicht nur in der Yellow Press - zu lesen. Sie zeigen die völlige Verwilderung der Sprache im Zusammen‐ hang mit hartnäckig ignorierten Fakten. Es ist den Schreibern eben völlig gleichgültig, dass Gene ganz einfach die erbbestimmenden Elemente der Chromosomen, d. h. die eigentlichen Steuerungsorgane des pflanzlichen, tierischen und menschlichen Lebens sind, und als solche zunächst einmal weder gut noch schlecht sein können. Vollends unsinnig ist, wie den Lesern meines Buches gewiss nicht erläutert werden muss, deshalb der Begriff „genfrei“. Gemeint ist in allen Fällen die so genannte „Genmanipulation“, eine Bezeichnung, die - schon aus sprachlichen Gründen - abwertend klingt. Besser wäre, generell von „Gentechnik“ zu sprechen, und es ist natürlich sinnvoll, vernünftig darüber zu diskutieren, ob die vom Menschen bewusst vorgenommene Einführung eines fremden Gens oder einer Gensequenz in allen Fällen unbedenklich ist. Sachdiskussionen erfordern aber, sich mit den Tatsachen vertraut zu machen, und das ist den Fundamentalisten zu mühsam. So werden denn „Genmais“ und „Gensoja“ auch weiterhin generell abgelehnt, obwohl gentechnisch veränderte Sorten mit hervorragenden Eigenschaften in vielen Ländern längst angebaut und im Lebensmittelsektor eingesetzt werden. Ähnlich steht es um den Begriff „chemiefrei“. Werden z. B. „chemiefreie“ Reinigungsmittel gefordert, so hören wir als positive Beispiele immer wieder Essigbzw. Zitronensäure. Der Chemiker wundert sich dann, wieso eigentlich die genannten Säuren nichts mit Chemie zu tun haben sollen. 207 4.3 Die Öko-Falle und das Wunschdenken <?page no="208"?> Falls ein - sich für kreativ haltender - Fundamentalökologe darüber spricht, erfahren wir Seltsames. Essigsäure und Zitronensäure seien „natürliche“ Säuren, und zählten deshalb nicht zu den synthetisch gewonnen „aggres‐ siven“ Chemikalien. Unsere Erwiderung, beide Säuren seien heute fast ausschließlich synthetische Produkte, wird damit beantwortet, dann müsse man eben wieder den „natürlichen“ Herstellungsprozess wählen, damit diese Säuren als umweltfreundliche Mittel eingesetzt werden können. Un‐ sere Antwort, synthetisch wie biochemisch erzeugte Substanzen seien - analytisch nachgewiesen - absolut identisch, wird energisch bestritten. Wir sind an dem Punkt angelangt, an dem auch ein sehr geduldiger Fachmann entnervt aufgibt. Der Fundamentalökologe schließt daraus, dass er „eben doch“ richtig liegt. Nicht minder interessant verläuft eine Diskussion über ökologische Landwirtschaft. Argumentieren wir, dass eine vernünftig betriebene Dün‐ gung ebenso wie ein verantwortungsbewusster Einsatz von Pflanzenschutz‐ mitteln sinnvoll ist, haben wir schon verloren. Der Fundamentalökologe wird uns aufklären, dass - wenn überhaupt - nur „natürliche“ Düngung infrage kommt, und dass Pflanzenschutzmittel grundsätzlich abzulehnen sind. Unsere Antwort, dass es bezüglich der reinen Düngewirkung keinen Unterschied macht, woher die Stickstoffbzw. Phosphorverbindungen kom‐ men, wird sowieso negiert. Analog zum obigen Essig- und Zitronensäure- Beispiel wird vielmehr behauptet, dass es sehr wohl entscheidende Unter‐ schiede zwischen den Wirksubstanzen des natürlichen und des künstlichen Düngers gebe (die Rede ist hier nicht vom unbestrittenen Vorteil des organischen Düngers für die Humusbildung! ). Obwohl Glaube und Wissen nicht kompatibel sind, versuchen wir es nun mit den Pflanzenschutzmitteln. Wir argumentieren, die übrigbleibenden Spuren (im Mikrogramm-Bereich) seien weniger bedenklich als eine verdorbene Ernte. Auch gebe es sehr giftige Substanzen in unbehandelten Kulturen. Beispielsweise seien im Mittelalter Zehntausende allein an den Verunreinigungen des damaligen „Bio“-Getreides - den Alkaloiden des Mutterkorns - gestorben, was heute, da unser Saatgetreide (inzwischen sogar quecksilberfrei) gebeizt wird, nicht mehr vorkommen könne. Der Fundamentalökologe lässt sich auf solche Kleinigkeiten nicht ein und diskutiert hartnäckig weiter über die absolute Fluchwürdigkeit von Pestizidspuren. Wir wissen natürlich, dass es Anrei‐ cherungseffekte (z. B. im Fettgewebe) gibt, die nicht übersehen werden dürfen; was aber in solchen Diskussionen nicht gelingt, ist eine vernünftige Schadens-Nutzens-Abwägung. Dennoch sollten wir nicht aufgeben. Es geht 208 4 Fehlermöglichkeiten und Denkfallen <?page no="209"?> hier nicht um Glaubenssätze, sondern um Fakten. Sachdiskussionen sollten stets ohne Diffamierung des Kontrahenten geführt werden. Besonders schwierig scheint dies auf dem Gebiet der Homöopathie zu sein. Für den Naturwissenschaftler ist schlicht unverständlich, was eigentlich wirken soll, wenn doch gar nichts mehr da ist. Für höhere Verdünnungsstufen ist das Bild vom Stückchen Würfelzucker, das im Ozean aufgelöst wird, noch deutlich untertrieben. Nicht vorhandene Wirkstoffe können beim besten Willen nicht als wirksam verstanden werden. Hinzukommen die seltsamen Gebräuche der Homöopathen, die bei Flüs‐ sigkeiten nicht etwa nur fachgerecht verdünnen, sondern so genannte „Verschüttelungen“ vornehmen, deren - möglicherweise ritueller? - Sinn sich dem Nicht-Homöopathen durchaus nicht erschließt. Gleiches gilt für die so genannten „Verreibungen“ beim Verdünnen von Festsubstanzen. Dem Glauben der Sparte entsprechend, werden Verdünnungen nicht etwa Verdünnungen, sondern Potenzierungen genannt, weil behauptet wird, ein Mittel sei um so wirksamer, je höher der Verdünnungsgrad ist. Homöopa‐ thische Mittel werden zwar hergestellt und für teures Geld vertrieben, nicht aber für bestimmte Indikationen gekennzeichnet, denn das verbietet interessanterweise der Gesetzgeber. Das Etikett auf dem Fläschchen ver‐ schweigt also, wogegen das Mittel eigentlich gedacht ist. So bleibt denn dem experimentierfreudigen Gläubigen ein breites Spektrum von Möglichkeiten. Beispielsweise liest der erstaunte Interessent für Aconitum C 30, dass es sich um 10 g Streukügelchen handelt. Als Zusammensetzung wird lako‐ nisch angegeben: Streukügelchen Aconitum C 30. Zur Indikation findet sich nichts. Gerüchtweise verlautet, das Mittel wirke gegen eine aufkeimende Erkältung. Damit sich der Patient nicht gar so verklapst fühlt, schmecken die Kügelchen süß. Über den bei Herstellung der Kügelchen verwendeten Zucker findet sich auf dem Etikett nichts. Sehen wir uns nun einmal an, was „C 30“ eigentlich bedeutet. Jede C- Potenz (centum = hundert) entspricht einer Verdünnung des Wirkstoffes auf 1: 100. C 1 entspräche demnach 1: 100, C 2 bereits 1: 10 000, C 3 steht für 1: 1 000 000, C 4 für 1: 100 000 000, C 5 für 1: 10 000 000 000. In gleicher Stufung geht es weiter bis zum absoluten Nichts. Nun wissen wir, was C 30 bedeutet. Anstelle der 10 Nullen für die Stufe C 5 haben wir es bei C 30 mit 60 Nullen zu tun. Den überzeugten Homöopathen ficht das nicht weiter an. Rechnen wir ihm vor, dass in C 30-Kügelchen garantiert kein Wirkstoff mehr enthalten sein kann, so wird er erwidern, das stimme zwar rein rechnerisch, jedoch 209 4.3 Die Öko-Falle und das Wunschdenken <?page no="210"?> seien die „Kraftwirkungen“, die „Kraftfelder“ der Substanz auch bei deren Abwesenheit noch anwesend, und somit wirksam. Wir kommen hier an den Punkt, an dem Wissen durch Glauben ersetzt werden muss. Bekanntlich bildet sich der Mensch allerhand ein. Auch ein Naturwissenschaftler wird manchmal krank. Er ist dann, sofern alle anderen Mittel versagen, wider besseres Wissen bereit, in seiner Verzweiflung die Homöopathie zu erproben. Ihm wird sogar versichert, er sei nicht verpflich‐ tet, an die Sache zu glauben, sie wirke dennoch. Berichte über angebliche Heilungen sind nach meiner Auffassung schon des‐ halb nicht reproduzierbar, weil bereits die täglich vom Menschen aufgenom‐ mene Nahrung eine Fülle unterschiedlichster Stoffe in homöopathischen oder auch allopathischen Konzentrationen enthält. Unter diesen Umständen eine sichere Ursache-Wirkungs-Beziehung annehmen zu wollen, erscheint doch recht abenteuerlich. Dies gilt, wie gesagt, für stofflich begründete Heilungen. Die völlige Abwesenheit eines Stoffes macht es vollends unmöglich, stoffliche Wirkungen anzunehmen oder auch nur an solche Wirkungen zu glauben. 4.4 Das Übersehen nahe liegender Ähnlichkeiten Die am nächsten liegenden Assoziationen sind prinzipiell im eigenen Fach‐ gebiet verfügbar. Wir hatten im Abschnitt 3.4.8 das Beispiel des feinteiligen Phase II-Tripolyphosphats behandelt, das sich - eben weil es feinteilig ist - so verhält, als bestehe es zu einem gewissen Anteil aus dem weit hydratationsfreudigeren Phase I-Produkt. Dieses Beispiel zeigt, dass selbst zwischen Labor- und Produktionsspezialisten der gleichen Branche der gedankliche Austausch nicht immer funktioniert. Mit fortschreitender Spe‐ zialisierung dürfte das Problem kaum geringer werden. Deshalb ist es sinnvoll, neue Fachinformationen zusätzlich stets auch unter methodischen Gesichtspunkten zu analysieren. Für den Patentprüfer ist bei der Prüfung eines Schutzbegehrens interessant, ob die der Anmeldung zugrunde liegende Analogie für den Anmelder nahe liegend ist, oder eben nicht. Allgemein lässt sich sagen: Je ferner die Quelle, desto besser die Chancen der Patenterteilung. Allerdings wird die Auslegung dieses Grundsatzes in der Praxis höchst subjektiv gehandhabt. Ein gebildeter, auf vielen Gebieten sattelfester Prüfer wird auch manche Analogie für naheliegend - und damit dem fachmännischen Handeln zugänglich - erklären, die nicht aus 210 4 Fehlermöglichkeiten und Denkfallen <?page no="211"?> dem engeren Fachgebiet des Anmelders stammt. Andere Prüfer beziehen sich bei ihrer Entscheidung nur auf das unmittelbare Arbeitsgebiet des Anmelders. Übergeordnete physikalische Gesichtspunkte werden meist nicht berücksich‐ tigt, was die Sache für den Kreativen wiederum erleichtert. Betrachten wir das in Abb. 30 dargestellte Beispiel: Wir erkennen, dass die bei oberflächlicher Betrachtung anscheinend weit voneinander entfernten Gebiete (Verschließen von Hüllrohren im Betonbau einerseits, Verschließen von Flaschen andererseits) als analog betrachtet werden können. In beiden Fällen wird ein zylindrischer Hohlkörper, kürzer gesagt: ein Rohr, mit Hilfe eines Stopfens verschlossen, der anstelle der üblichen Flächendichtung mit einer Mehrfach-Lippendichtung arbeitet. Das ist die physikalische Seite der Sache. Dokumentvorlage • Narr Verlage | A 3.3 Abb. 30 In physikalischer Hinsicht vordergründige, aus der Sicht der Fachgebiete nicht vordergründige Analogie: Stopfen zum Verschließen von Hüllrohren im Betonbau ((a), Döllen, Pat. 1984/ 1986) sowie Polyethylenstopfen für Sekt- und Weinflaschen (b). Schutzrechtlich liegt die Analogie weit genug auseinander, um Patente in beiden Gebieten zu ermöglichen. Aus kommerzieller Sicht besteht wohl kaum Interesse, sich mit den - zwar physikalisch analogen, aber sachlich entfernten - Rechten eines anderen Gebietes auseinander zu setzen. Welcher Getränkefabrikant interessiert sich schon für das Verschließen von Hüllrohren im Betonbau? Welchen braven Betonbauer interessieren, außer nach Feierabend, Getränkeflaschen? Die besten Assoziationen sind auf bionischem Wege zugänglich. Erfahrungsgemäß wird noch immer viel zu wenig Gebrauch davon gemacht. Wir verfügen heute über eine ausgezeichnete bionische Literatur, deren Einsatz uneingeschränkt empfohlen werden kann. Insbesondere das Buch von Hill (1999) bringt eine Fülle direkt verwertbarer Analogien, die in funktional aufgebauten Strukturkatalogen zusammengefasst sind. Auch der evolutionäre Aspekt wird konsequent berücksichtigt. Als Beispiel wollen wir Abb. 31 betrachten. In der Mittelspalte dargestellt ist das biologische Muster sowie die technische Analogie, rechts finden wir die in der Natur sowie in der Technik mit Hilfe des jeweiligen Prinzips ermöglichte Funktion. Bionik reduziert sich eben nicht nur auf das immer wieder strapazierte Abb. 30 In physikalischer Hinsicht vordergründige, aus Sicht der Fachgebiete nicht vordergründige Analogie: Stopfen zum Verschließen von Hüllrohren im Betonbau ((a), Döllen, Pat. 1984/ 1986) sowie Polyethylenstopfen für Sekt- und Weinflaschen (b) Schutzrechtlich liegt die Analogie weit genug auseinander, um Patente in beiden Gebieten zu ermöglichen. Aus kommerzieller Sicht besteht wohl kaum Interesse, sich mit den - zwar physikalisch analogen, aber sachlich entfernten - Rechten eines anderen Gebietes auseinander zu setzen. Wel‐ cher Getränkefabrikant interessiert sich schon für das Verschließen von Hüllrohren im Betonbau? Welchen braven Betonbauer interessieren, außer nach Feierabend, Getränkeflaschen? Die besten Assoziationen sind auf bionischem Wege zugänglich. Erfah‐ rungsgemäß wird noch immer viel zu wenig Gebrauch davon gemacht. Wir 211 4.4 Das Übersehen nahe liegender Ähnlichkeiten <?page no="212"?> verfügen heute über eine ausgezeichnete bionische Literatur, deren Einsatz uneingeschränkt empfohlen werden kann. Insbesondere das Buch von Hill (1999) bringt eine Fülle direkt verwertba‐ rer Analogien, die in funktional aufgebauten Strukturkatalogen zusammen‐ gefasst sind. Auch der evolutionäre Aspekt wird konsequent berücksichtigt. Als Beispiel wollen wir Abb. 31 betrachten. In der Mittelspalte dargestellt ist das biologische Muster sowie die technische Analogie, rechts finden wir die in der Natur sowie in der Technik mit Hilfe des jeweiligen Prinzips ermöglichte Funktion. Bionik reduziert sich eben nicht nur auf das immer wieder strapazierte Lotuseffekt-Beispiel, sondern ist eine eigenständige, hoch seriöse, umfassende Methode, deren systematischere Nutzung jedem Kreativen am Herzen liegen sollte. Abb. 31 Evolutionstrend: Reduzierung des Stoffeinsatzes durch Profilierung (Hill 1999, S. 53) 212 4 Fehlermöglichkeiten und Denkfallen <?page no="213"?> 4.5 Das schwächste Kettenglied Meist haben wir es bei unseren erfinderischen Bemühungen mit mehrstu‐ figen komplexen Systemen zu tun. Dies ist besonders in der systemanaly‐ tischen Phase zu berücksichtigen. Fast niemals sind die Stufen eines kom‐ plexen Systems gleich stark entwickelt. Die Folge ist: Der Gesamtprozess arbeitet nur so schnell (bzw. so gut, kostengünstig, reparaturfreundlich), wie sein schwächstes Kettenglied. Kernpunkt des systematischen Vorgehens ist das Aufspüren des „Fla‐ schenhalses“. Im angelsächsischen Sprachraum wird der anschauliche Be‐ griff „bottle neck“ regelrecht als terminus technicus verwendet. Mehrstufige Prozesse zeigen meist mehrere Schwachstellen. Aus der Leistungsfähigkeit jeder einzelnen Stufe ergibt sich dann zwanglos die Reihenfolge der in Angriff zu nehmenden Arbeiten. Die schwächste Verfahrensstufe muss, wenn man sinnvoll handeln will, zuerst bearbeitet werden. Sie ist in der Regel Verursacher des erfinderisch zu lösenden Widerspruchs. Das zu erreichende Gesamtziel sollte auf keinen Fall „freihändig“ festgelegt, sondern am Leistungsvermögen der stärksten (bzw. der schnellsten, bzw. der einfachsten) Verfahrensstufe orientiert werden. Indes ist diese Empfehlung nicht wörtlich zu nehmen. Es sind Fälle zu beobachten, in denen mit vertretbarem Aufwand nur ein mittleres Niveau erreichbar ist. Dann sollte dieses - und kein höheres - Niveau angestrebt werden. Danach ist mit der nächst schwächeren Verfahrensstufe analog zu verfahren. Komplexe Systeme sind meist derart unterschiedlich entwickelt, dass eine alleinige Orientierung an der stärksten Verfahrensstufe weniger sinnvoll sein kann. Diese Empfehlungen mögen banal erscheinen; indes zeigt die Praxis, dass meist unüberlegt an beliebigen Prozessstufen herumverbessert wird - oft einfach deshalb, weil sich dort vordergründig Verbesserungsmöglichkeiten zeigen, die zur sofortigen Bearbeitung reizen. Der Bearbeiter ist stolz, wenn ihm irgendetwas Pfiffiges zu irgendeiner Verfahrensstufe „gerade mal so“ einfällt. Ist dies eine der ohnehin star‐ ken Stufen, so arbeitet der Gesamtprozess im Ergebnis der Umsetzung der Idee zur allgemeinen Enttäuschung nicht besser als zuvor, eben weil das schwächste Kettenglied die Leistungsfähigkeit des Gesamtprozesses bestimmt. Die Unsitte, irgendwo und irgendwie drauflos zu arbeiten, ist speziell dort verbreitet, wo eine genaue Kenntnis der Mängel und Schwächen 213 4.5 Das schwächste Kettenglied <?page no="214"?> jeder einzelnen Prozessstufe fehlt. Überhaupt ist die Unterschätzung der systemanalytischen Arbeit die eigentliche Ursache für die vielen Misserfolge beim Intensivieren komplexer mehrstufiger Prozesse. Abhilfe kann nur eine an den Anfang der Bemühungen gestellte, schonungslos kritische Teilsystem-Funktionsanalyse schaffen. Gleich wichtig wie die Prozessstufen selbst sind die Verbindungen zwi‐ schen den Stufen. Beispiele finden sich in allen Industriezweigen. In der Chemischen Industrie sind mehrstufige Prozesse die Regel. Vor der ersten Verfahrensstufe haben wir es mit dem Rohstoffantransport, nach der letzten Verfahrensstufe mit dem Fertiggutabtransport zu tun. Dazwischen liegen sehr oft zahlreiche innerbetriebliche Transport-, Um‐ schlags- und Lagerprozesse, die wegen der spezifischen Eigenschaften mancher Zwischenprodukte, insbesondere aber wegen der den Prozess störenden Wirkung von Stockungen im Transportsystem, gut durchdacht sein sollten. Daran hapert es aber. Durchdacht und sauber aufeinander abgestimmt sind solche Problemstrecken nur selten. Natürlich spielt bei unserem Beispiel auch die Ausbildung der verantwort‐ lichen Leiter eine Rolle. Sie sind z. B. Chemiker und kümmern sich deshalb, oft erfolgreich, überwiegend um ihre fachliche Arbeit, nämlich die Inten‐ sivierung der Stoff wandelnden Verfahrensstufen. Dieses Vorgehen nützt aber nur dann, wenn die Transportstrecken mit gleicher Intensität bearbei‐ tet werden, und zwar sinnvoller Weise nicht parallel, sondern komplex. Praktisch bedeutet das die weitgehende Integration der Transportprozesse, was für den Gesamtprozess auf eine starke Annäherung an das IER hinaus‐ läuft: Der „Ideale Transport“ ist eben Kein Transport! Möglichkeiten der Annäherung an diese Wunschvorstellung sind: Kaskadenarbeitweise per Gravitation, Kürzester Weg, Zusammenlegen von durch Transportstrecken miteinander verbundenen Verfahrensstufen. Ich habe diese Gedankengänge im Zusammenhang mit der Erläuterung des IER unter 3.1.2 bereits kurz behandelt. Genau diese Gesichtspunkte sind auch in der synthetischen (d. h. der sys‐ temschaffenden, der eigentlich kreativen) Phase gültig. Zunächst ist die ge‐ wonnene Lösungsidee per Schwachstellenanalyse kritisch zu untersuchen. Dann ist zu überprüfen, welche Stufe des Gesamtprozesses nach erfolgter Verstärkung der bisher schwächsten Stufe zur nunmehr schwächsten Stufe wird, welcher Aufwand zu treiben ist, diese Stufe zu verbessern, und was dann mit dem Gesamtsystem geschieht. Schließlich ist zu ermitteln, welche 214 4 Fehlermöglichkeiten und Denkfallen <?page no="215"?> neuen Entwicklungsrichtungen, an die vorher nicht zu denken war, sich nach dem Verbessern mehrerer Verfahrensstufen für den Gesamtprozess ergeben. 4.6 Die Triebkraft von Naturvorgängen Zu den typischen Merkmalen des ungeduldigen Kreativen zählt, sich unein‐ geschränkt für Neues zu begeistern. Aber gerade dieses „uneingeschränkt“ kann sich als böse Falle erweisen, denn nicht Neues an sich, sonder technisch Fortschrittliches ist anzustreben. Nun ist „Technischer Fortschritt“ im pa‐ tentjuristischen Sinne ein dehnbarer Begriff, dehnbar wie etwa der ebenfalls nicht eindeutig definierte - und deshalb nur über Hilfskriterien näher bestimmbare - Begriff „Erfinderische Leistung“ bzw. „Erfindungshöhe“ (7.2). Deshalb sei dem Erfinder geraten, an seine Bemühungen eigene, strenge Maßstäbe anzulegen. Betrachten wir das Beispiel der Windkraftanlagen. In den letzten Jahr‐ zehnten wurde eine Fülle von Patenten auf diesem zukunftsträchtigen Gebiet angemeldet. Gegenstand der Anmeldungen waren die verschiedens‐ ten Typen. Die meisten wurden, zumindest in Form von Versuchsbzw. Modellanlagen, auch erprobt. Sehen wir uns die unterschiedlichen Typen näher an, so zeigt sich, dass die vom Wind angetriebenen Rotoren - je nach Konstruktionsprinzip - bei vergleichbarem Aufwand sehr unterschiedliche Leistungen erreichen. Luft ist bekanntlich ein „dünnes“ Medium, und des‐ halb kommt es darauf an, dass die Rotoren in Funktion eine maximale Fläche überstreichen. Anders ausgedrückt: Die „Ernte“ hängt davon ab, dass der Wind auf einer möglichst großen Fläche angreifen kann. Diese Forderung ist am besten mit den inzwischen überall installierten, marktbeherrschenden dreiflügeligen Rotoren zu verwirklichen. Bei diesen kommt hinzu, dass - wie bei einem umgekehrten Flugzeugpropeller - aerodynamische Effekte die reine Flächenwirkung ganz entscheidend verstärken. Erreicht wird dies durch eine (heute vom Computer errechnete) Profilierung bzw. Verschrän‐ kung. Dies alles ist dem Fachmann geläufig, und dem kreativen Nichtfachmann ohne besondere Schwierigkeiten zu vermitteln. Dennoch werden auch heute immer noch Konstruktionen angemeldet, bei denen von vornherein absehbar ist bzw. nach ernsthafter Beschäftigung mit der Materie klar sein 215 4.6 Die Triebkraft von Naturvorgängen <?page no="216"?> müsste, dass sie aus prinzipiellen Gründen weit weniger effizient sind als die inzwischen etablierten Lösungen. In einer solchen Situation sollten wir bedenken, dass bereits die rechtzei‐ tige Analyse der Geschichte eines technischen Systems wichtige Antworten liefert und uns so vor der allzu eifrigen Beschäftigung mit längst geklärten Fragen bewahren kann: „Dreitausend Jahre lang war die Windkraft fast die einzige Energie, die den Men‐ schen zur Verfügung stand. Im Mittelalter wurden die Windmühlen zu brauchbaren Maschinen entwickelt und erbrachten in der Neuzeit bereits Leistungen von 20 kW und mehr. Nach der Renaissance nahmen sich die Physiker und Mathematiker der aerodynamischen Gestaltung der Flügelblätter an. Es waren vor allem Bernoulli 1738, Smeaton 1752 und Euler 1756, die unabhängig voneinander die Flügelver‐ schränkung berechneten. Aber es war zu früh. Man beließ es bei der überlieferten allgemeinen Schrägstellung der Flügel bis ins zwanzigste Jahrhundert, wo Eiffel und la Cour in eigenen Versuchsanlagen praktische Werte für die Mühlenbauer lieferten. Ein durchgreifender Wandel trat erst durch Betz ein, der mit Hilfe des Göttinger Windkanals und den abgeleiteten Gleichungen klare Konstruktionsdaten für die Flügelbreiten und deren Anstellungswinkel bestimmte, die heute noch gelten. Von 1925 an konnte jeder aerodynamisch optimale Flügelblätter entwerfen. Die praktische Durchführbarkeit wurde erst Ende der sechziger Jahre möglich, als die glasfaserverstärkten Kunstharze aufkamen“ (v. König 1988, S. 3). Bereits diese mustergültige Kurzdarstellung in der Einführung zu einer populärwissenschaftlichen Monografie enthält alle wesentlichen Gesichts‐ punkte. Wir wissen nun, dass wir uns alle Vorschläge, die mit nicht ver‐ schränkten bzw. nicht profilierten Rotorblättern arbeiten, von vornherein sparen können. Wir wollen schließlich nicht an einer Rückentwicklung der Technik arbeiten. Also akzeptieren wir, dass einfache plane Flügel, die nur mit ihrem Widerstand gegen den auftreffenden Wind arbeiten, grundsätzlich nicht mehr infrage kommen. Eifrige Bastler ließen sich dennoch erst vor wenigen Jahren eine walzenför‐ mige Konstruktion schützen, die in der Hauptwindrichtung auf Dächern von Wohnhäusern installiert werden sollte. Der durch den Stau nach oben gedrückte Wind hätte diese Vorrichtung - analog zum Wasserrad - in Bewegung gesetzt. Die Konstruktion ähnelt äußerlich einem unterschläch‐ tigen Uralt-Wasserrad mit planen Schaufeln. Die gut gemeinte Idee mag für den beschriebenen Zweck formal neu sein; unter dem Gesichtspunkt der 216 4 Fehlermöglichkeiten und Denkfallen <?page no="217"?> Effizienz hat sie keine Chancen. Sie besitzt nur Bastlerwert und hat weitere Nachteile: Laufgeräusche und Körperschall im Gebäude sprechen zusätzlich gegen die Umsetzung. Die grundsätzliche Forderung lautet, wie gesagt, dass die wirksame Fläche möglichst groß zu sein hat. Die modernen Werkstoffe, insbesondere GFK (glasfaserverstärkter Kunststoff), ermöglichen die Erfüllung dieser Forde‐ rung. Die heutigen Anlagen arbeiten mit gewaltigen Rotoren und bringen Leistungen von 5 bis 8 MW. Noch größere Anlagen, vor allem im Offshore- Bereich, sind im Bau. Beim Erreichen einer bestimmten Windstärke drehen sich die Rotorblätter automatisch in „Fahnenstellung“, wodurch die Zerstö‐ rung der Anlage verhindert wird. Allerdings müssen, damit der technische Fortschritt auch stattfindet, subjektive Einflüsse nach Möglichkeit ausgeschaltet werden. Zu diesen Einflüssen zählt die Handhabung der staatlichen Förderung. Auch zu diesem Punkt bringt v. König ein sehr eindrucksvolles Beispiel: „In der Bundesrepublik arbeitete die staatliche Förderung nahezu ausschließlich mit der Großindustrie zusammen, mit der sie schon in Verbindung stand. Das führte natürlich zu engen Verbindungen und dem unseligen Gedanken, beweisen zu wollen, dass die Windkraft nicht fähig ist, einen messbaren Beitrag zur Energieversorgung zu leisten. Das Gegenteil war eigentlich die Aufgabe. Der Ablauf der Tätigkeit der ein‐ zelnen Stellen musste missraten. Das Schauprojekt GROWIAN I mit einer Leistung von 3000 kW wurde mit 94 Millionen (DM) durchgezogen. Im Gründungsprotokoll der 1977 entstandenen Gesellschaft zum Bau der Windkraftanlage GROWIAN wurde schon festgehalten, dass bei negativem Ausgang des Projektes erwiesen ist, dass die Windenergie für die Energieversorgung nicht brauchbar ist. Als Hauptdaten des GROWIAN I waren festgelegt: ■ Windraddurchmesser 100,4 m, ■ Leistung 3 MW bei einem Wind von 11,2 m/ s, ■ Nenndrehzahl 18 rpm, Generator-Drehzahl 1500 rpm, ■ Zwei Flügel für eine Schnelllaufzahl von 8,4, ■ Turmhöhe H = 96,9 m. Mit dem Bau des GROWIAN I wurde am 15. Mai 1981 begonnen. Am 17. Oktober 1983 wurde er in Betrieb genommen. In den drei Jahren bis zum Oktober 1986 lieferte das Werk insgesamt 80 000 kWh in das Netz. Das entspricht einer Volllastzeit von 27 Stunden. Das Werk ist über das Versuchsstadium nie hinausgekommen … Man kann nicht einen Schnellläufer mit einer Flügellänge von 50 Metern bei 217 4.6 Die Triebkraft von Naturvorgängen <?page no="218"?> einer Leistung von 3000 kW und böigem Wind abfangen wollen. Das hält kein Material aus. Der Forschung ist vorbestimmt, die Grenzbereiche in Technik und Wissenschaft zu untersuchen und eventuell hinauszuschieben. Das ist ihre Stärke. Die praktische Ausführung muss autark in den Händen des Ingenieurs liegen. Wird diese Arbeitsteilung missachtet, dann ist das Ergebnis gefährdet“ (v. König 1988, S. 23). Das Zitat bedarf keines weiteren Kommentars. Es ist selbsterklärend, was rein direktionistisches Handeln und die dadurch programmierten Irrwege anbelangt. Tröstlich ist immerhin, dass sich die - letzlich dann doch tech‐ nologiegetriebene - Entwicklung nicht aufhalten ließ, wie überall im Lande eindrucksvoll zu besichtigen ist. Wir erkennen, dass es aus physikalischer Sicht gelingt, Ideen rechtzeitig als ineffizient einzustufen. Der Erfinder sollte sich dann mit derartigen Ideen gar nicht erst befassen - es sei denn, sie hätten aus guten Gründen, wie im Falle von Insellösungen oder kurzfristig erforderlichen Improvisationen, ausnahmsweise ihre Berechtigung. 4.7 Ganz ohne Physik geht es nicht In der Kreativitätslehre gilt als sicher, dass die Kreativität, falls vorhanden, in jungen Jahren ganz besonders ausgeprägt ist. Verschiedene Autoren geben unterschiedliche Zeitpunkte für das Kreativitätsmaximum an. Die Angaben schwanken zwischen dem 6. und dem 21. Lebensjahr. Einigkeit herrscht aber darüber, dass bereits in einem Lebensalter, in dem die Ausbildung noch keineswegs abgeschlossen ist, höchste kreative Leistungen erzielt werden können. Es sei allerdings daran erinnert (Kapitel 2), dass der Kreativitätsbegriff ziemlich vage ist, so dass auch subjektive Momente bei solchen Angaben zum Kreativitätsmaximum eine Rolle spielen. Auf einen weiteren wesentlichen Punkt hat Altschuller hingewiesen. Bezugnehmend auf die technische Kreativität gibt er zu bedenken, dass - auch wenn das Kind hoch kreativ sein sollte - sinnvolle Vorschläge erst erwartet werden können, wenn ein gewisser Grundstock an physikalischen Kenntnissen gelegt ist. In seinem pädagogisch mustergültigen Buch „I tut pojavilsja izobretat`el“ hat Altschuller (Altov 1984) für Kinder gedachte erfinderische Beispiele behandelt, die sämtlich mit physikalischen Erläuterungen versehen sind (das Buch erschien unter Altschullers Pseudonym Genrich Altov). 218 4 Fehlermöglichkeiten und Denkfallen <?page no="219"?> Altschullers Auffassung ist sicher zutreffend, denn erst die Kenntnis von Ursache-Wirkungs-Zusammenhängen liefert die Voraussetzung zum Erar‐ beiten von Mittel-Zweck-Vorschlägen. Da der Physikunterricht gewöhnlich mit der 5. Klasse beginnt, können bereits 10bis 12-Jährige, sofern befähigt und interessiert, im engeren Sinne erfinderisch denken. Der Bundeswett‐ bewerb „Jugend forscht“ zeigt, zu welchen Leistungen Schüler im Alter zwischen 13 und 17 Jahren fähig sind. Meine Erfahrungen mit (z. B. in INSTI-Erfinderclubs organisierten) Jugendlichen liefen darauf hinaus, dass technisch-wissenschaftliche Sachverhalte, falls interessant aufbereitet und nicht gar so langatmig-theoretisch erläutert, auf gleichem Niveau wie für Erwachsene behandelt werden können. Wir erkennen also, dass es für technisch Kreative jeglichen Alters ohne Physik nicht funktioniert. Der viel gerühmte gesunde Menschenverstand allein ist nicht in der Lage, zu sinnvollen Vorschlägen auf erfinderischem Niveau zu gelangen. Er weiß zu wenig von den physikalischen Effekten, deren Kenntnis die Voraussetzung für erfolgreiches kreatives Schaffen ist. Einige Beispiele aus Altschullers Buch (Altov 1984) zeigen, dass die dem Alter der Jugendlichen entsprechende Wissensvermittlung in einfacher und dennoch wissenschaftlich exakter Weise gelingt. Ich kenne bis heute kein besseres Buch zu diesem Thema. Abb. 32 Demonstration des Prinzips „Phasenübergang“ nach Altov (1984, S. 53). Je nach Zustandsform (Wasser bzw. Eis) ergeben sich verschiedene Transport‐ varianten 219 4.7 Ganz ohne Physik geht es nicht <?page no="220"?> In Abb. 32 finden wir das innovative Prinzip Nr. 35 „Verändern der phy‐ sikalisch-technischen Struktur einschließlich der Anwendung von Phasen‐ übergängen“ (Tab. 4) anhand der beiden Möglichkeiten zum Transport von Wasser sehr einfach und einleuchtend dargestellt. Der Jugendliche wird durch dieses Bild zudem angeregt, sich eine ganze Reihe von Anwendungen für Eis anstelle von Wasser auszudenken. Dies schult das bei Jugendlichen noch wenig entwickelte systematische Denken und lässt die Erkenntnis reifen, dass es eben doch vorteilhaft sein kann, sich nicht ausschließlich auf die reichlich sprudelnden Spontanideen (Kennzeichen der „fluiden“ Intelligenz) zu verlassen. Abb. 33 Magnetisch in Position gehaltene Stahlkugeln schützen den Krümmer von innen gegen den Verschleiß durch das abrasive wirkende Fördergut (Altov 1984, S. 45) Einleuchtend ist auch der kreative Gebrauch des Magnetismus. Er gehört nicht nur zu Altschullers innovativen Prinzipien (Tab. 4), sondern ist ge‐ rade bei Jugendlichen erfahrungsgemäß beliebt. Abb. 33 zeigt uns eine etwas ungewöhnlichere Anwendung. Durch eine Rohrleitung wird ein 220 4 Fehlermöglichkeiten und Denkfallen <?page no="221"?> abrasiv wirkendes Gut pneumatisch gefördert. Nach kurzer Zeit sind die Rohrkrümmer verschlissen und müssen ausgetauscht werden. Die Lösung des Problems sieht wie folgt aus: Dem Fördergut werden Stahlkugeln beigegeben. Diese gelangen mit dem Gutstrom auch in den Bereich des Krümmers und werden dort mit einem (außen positionierten) Magneten an der Innenwandung festgehalten. Sie bilden eine Schutzschicht, die nun anstelle der Rohrwandung verschleißt. Sind alle Kugeln verschlissen, so werden weitere dem Gutstrom zugesetzt. Der Krümmer braucht nun nicht mehr ausgetauscht zu werden. Selbst anspruchsvollere Effekte, wie das Hydrodynamische Paradoxon, lassen sich sehr einfach erklären. Sehen wir uns Abb. 34 an (Altov 1984, S. 103). Wir erkennen, dass die beiden stromabwärts fahrenden Boote ihren Abstand zueinander halten können, solange der Fluss breit und die Strö‐ mung mäßig ist. Mit der Einfahrt in einen schmaleren Flussarm ändert sich das. Die nunmehr stärkere Strömung führt dazu, dass sich die Stromlinien einander immer mehr nähern. Dadurch bedingt werden die beiden Boote förmlich aneinander gesaugt. Abb. 34 Das Bernoulli-Phänomen = Hydrodynamisches Paradoxon (Altov 1984, S. 103) In einem Punkt allerdings war Altschuller wohl doch zu optimistisch. Er ging 1980 davon aus, dass sich die damals beobachtete Verteilung des kreativen Personals (viele „gewöhnliche“ Ingenieure, wenige Erfinder) bis zum Jahre 2000 glatt umkehren werde. Abb. 35 zeigt, wie sich Altschuller die Entwicklung vorstellte. Zwar ist das Bild nur symbolisch gemeint, die 221 4.7 Ganz ohne Physik geht es nicht <?page no="222"?> Verteilung zwischen „gewöhnlichen“ Ingenieuren und Erfindern erhebt keinen Anspruch auf quantitative Genauigkeit, jedoch dürfte klar sein, dass wir von der Wunschvorstellung des großen Methodikers (Altov 1984, S. 63) heute noch meilenweit entfernt sind. Abb. 35 Wie sich Altschuller die Entwicklung der Zahl der „gewöhnlichen“ im Vergleich zu den erfinderischen Ingenieuren vorstellte. Links: 1980. Rechts: Prognose für das Jahr 2000. Schwarz: Ingenieure; Weiß: Erfinder (Altov 1984, S. 63) Manchmal kommen „Erfinder“ zu mir, die sich beraten lassen wollen. Sie sind regelmäßig schwer enttäuscht, wenn ich sie mit physikalischen Argu‐ menten auf die vorhersehbare Undurchführbarkeit dessen, was sie planen, hinweise. Nur wenige lassen sich überzeugen. Manchmal ist es fast tragisch, weil die Leute tatsächlich kreativ sind, aber von Wunschvorstellungen ausgehen, und das stets notwendige Korrektiv harter physikalischer Fakten nicht anerkennen wollen. Im Grenzfall kommt es vor, dass diesen potenziellen Erfindern physika‐ lische Effekte durchaus bekannt sind, sie aber deren begrenzten Wirkungs‐ bereich nicht kennen, oder nicht anerkennen wollen. So hat es wenig Zweck, sich mit der Anwendung des Magneto-Hydrodynamischen Effekts in flüssigen wässrigen Elektrolyten bei 20-100 °C befassen zu wollen. Dieser Effekt wirkt in Gasplasmen bei Temperaturen von mindestens 3000 °C und soll, obzwar es unter solchen Bedingungen noch immer erhebliche Materialprobleme gibt, beim Betrieb von so genannten MHD-Kraftwerken zum Einsatz kommen. Das Wunschdenken führt allerdings nicht nur Erfinder, sondern manch‐ mal auch Entdecker in die Irre. Es kommt vor, dass Arbeiten zu physi‐ 222 4 Fehlermöglichkeiten und Denkfallen <?page no="223"?> kalischen Phänomenen publiziert werden, die es nach gut begründetem Kenntnisstand nicht geben kann. So war es auch mit der sogenannten „kalten“ Kernfusion, die Fleischman und Pons 1989 gefunden haben wollten. Bekanntlich wird seit Jahrzehnten daran gearbeitet, die - analog zu den Vorgängen im Inneren der Sonne - bei höchsten Temperaturen ablaufende Kernfusion technisch beherrschen zu lernen. Vor diesem Hintergrund wäre eine gewissermaßen im Reagenzglas ablaufende kalte Kernfusion - zudem in wässriger Lösung - nun wahrlich eine Sensation. Fleischman und Pons arbeiteten mit einer Palladiumelektrode und behaupteten, dass der elektro‐ lytisch erzeugte, in das Palladium hinein diffundierende Wasserstoff in einer derart aktiven Form vorliege, dass die kalte Fusion stattfinden könne. Die Sache verlief so, wie Irrtümer solcher Art fast immer enden: Einige Forscher wollten sich offenbar „dranhängen“ und bestätigten zunächst die Ergebnisse. Später wurde dann in aller Welt durch zahlreiche Kontroll‐ versuche festgestellt, dass dieses Phänomen, höflich ausgedrückt, nicht reproduzierbar ist. Selbst Fleischman und Pons mussten dies schließlich zugeben. Wie sehr es darauf ankommt, den in einem gestörten System wirkenden physikalischen Effekt zu erkennen, und ihn bei der Lösung des Problems zu berücksichtigen, sei an folgendem Beispiel demonstriert. In meinen Seminaren verwende ich als Übungsbeispiel oft das Trockenlegen von feuchtem Mauerwerk. Zur Klarstellung des Sachverhaltes projiziere ich zunächst Bilder, die das Aufsteigen der Feuchte in Außenmauern eindeutig erkennen lassen (Putzschäden, „wolkig“ aufsteigende Fronten). Um zu demonstrieren, wie wenig sinnvoll ein gewöhnliches Brainstorming ohne zuvor ausgeführte, physikalisch orientierte Systemanalyse ist, stelle ich dann die Frage, was die Teilnehmer wohl unternehmen würden, wollten sie das Mauerwerk trocken legen. Zu den Standardantworten gehört: „Ganz einfach, ich richte einen Heiz‐ lüfter auf die Wand und lasse ihn Tag und Nacht laufen“. Mein Einwand, dann werde die Mauer noch feuchter als zuvor, findet bei Teilnehmern, welche die Sache durchschauen, bald Zustimmung. Derjenige, der die Idee geäußert hat, reagiert jedoch meist empört. Jedenfalls bezweifelt er meine Behauptung, weil ihm nicht klar ist, dass es sich hier um von unten aufsteigende Kapillarfeuchte handelt: Heizt man oben, so steigert man die Verdampfungsgeschwindigkeit, und es wird durch die unten offenen Kapil‐ laren ständig neue Feuchtigkeit nach oben gesaugt. Es ist dann gar nicht so leicht, dem Zweifler die Besonderheiten einer Kapillare, die mit einem 223 4.7 Ganz ohne Physik geht es nicht <?page no="224"?> Schlauch oder einem Rohr überhaupt nicht vergleichbar ist, klarzumachen. Die meisten Teilnehmer haben längst begriffen, worum es geht. Nur der Zweifler zweifelt immer noch, obwohl es bereits kommerzielle Lösungen für das Problem gibt, die auf der gekonnten Einbeziehung der Kapillarität in die Problemlösung beruhen. Das Verständnis physikalischer Effekte hängt naturgemäß auch von der Entwicklung des Wissens im Verlaufe der letzten Jahrhunderte - insbeson‐ dere der letzten Jahrzehnte - ab. Was heute unstrittig ist, und einem Schüler wie selbstverständlich vermittelt werden kann, war vor einigen Jahrzehnten vielleicht nur Spitzenwissenschaftlern geläufig. Was gemeint ist, wollen wir uns anhand der folgenden Betrachtung zu den Axiomen und den Paradoxien vergegenwärtigen. Axiome und Paradoxien erscheinen dem oberflächlichen Betrachter zu‐ nächst als absolut gegensätzliche Begriffe. Axiome sind in einem derartigen Maße anerkannte Gesetzmäßigkeiten, dass sie im praktischen Leben zu den Grundtatsachen gerechnet werden, über die man gewöhnlich nicht weiter nachdenkt. Paradoxien hingegen gelten aus diesem Blickwinkel als geradezu unseriös. Sie beinhalten einen mindestens im ersten Anlauf nicht durchschaubaren Widerspruch. Das macht sie für den Kreativen interessant. Fast könnte man sagen, dass sich an diesem Punkt die Geister scheiden. Wem Paradoxien irgendwie suspekt sind, oder wer dabei gar „… so ein Blödsinn! “ murmelt, mit dessen Kreativität ist es gewiss nicht weit her. Wer hingegen Paradoxien schätzt, sie als Prüfsteine des Denkens betrachtet und sich mit ihnen aktiv auseinandersetzt, der trainiert seinen Geist ganz bewusst für die kreative Arbeit. Paradoxien sind nichts Absolutes. Entscheidend ist nach meinem Ver‐ ständnis, wer - und von welchem Denkniveau aus - ein Paradoxon beurteilt. Auch ist der Zeitpunkt der Betrachtung sehr wichtig. Ein Paradoxon, das heute noch diesen Namen verdient, ist morgen vielleicht von Spit‐ zenfachleuten schon physikalisch erklärbar, und erreicht möglicherweise nach einigen Jahrzehnten bereits den Status eines physikalischen Gesetzes, schließlich sogar den Status eines Axioms. Wir sollten, bezogen auf einen bestimmten Zeitpunkt, drei - von unten nach oben gezählte - Klassen von Paradoxien definieren: Die dritte Klasse besteht aus den nur noch so genannten Paradoxien, die heute bestenfalls didaktischen Wert für Anfänger haben. Einem pfiffigen Schüler ist z. B. das Aerostatische Paradoxon ohne Schwierigkeiten zu erklären. Zunächst mag er sich vielleicht wundern, dass zwei parallel 224 4 Fehlermöglichkeiten und Denkfallen <?page no="225"?> gehaltene Blätter ihren Abstand zueinander verringern, wenn man zwischen ihnen hindurch bläst. Ein Experiment zum Stromlinienverlauf (z. B. mit Hilfe von Rauchfäden) zeigt dem Zweifler jedoch einleuchtend, warum sich die Blätter nur anscheinend paradox verhalten. Vor allem lässt sich der Unterdruck im dynamischen Bereich gegenüber dem statischen Umfeld leicht erklären. Bei schärferem Hinsehen erweist sich dieser Effekt damit als vermeintliches Paradoxon, das im Physikunterricht wohl nur noch aus his‐ torischen Gründen als Paradoxon bezeichnet wird (s. a.: Hydrodynamisches Paradoxon, Abb. 34). Die zweite Klasse der Paradoxien liegt im Grenzbereich des aktuellen Wissens. Für Spitzenfachleute ist auch in diesen Fällen klar, dass es sich eigentlich nicht um Paradoxien handelt. Durchschnittsfachleute haben bereits Verständnisschwierigkeiten; für Laien handelt es sich um echte Paradoxien. Ein Paradoxon dieser Art war bis vor gar nicht so langer Zeit die Wärmepumpe. Für den Laien ist eben nicht einzusehen, warum entgegen aller Anschauung Wärme von einem kälteren auf einen wärmeren Körper übergeht. Heute verlangt man von jedem Gymnasiasten, dass er den physikalischen Zusammenhang begreift. Zur ersten Klasse der Paradoxien gehören die zum jeweiligen Zeitpunkt echten Paradoxien. Ihnen liegt ein Experimentalbefund zugrunde, dessen Deutung mit Hilfe einer anerkannten Theorie auch für Spitzenfachleute nicht möglich erscheint. Das liegt einfach am Fehlen einer für den paradoxen Fall zutreffenden Theorie. Ein solches Paradoxon bleibt zunächst bestehen, aber zu seiner Deutung wird eine Hypothese erdacht. Beispielsweise ist die von Hubble entdeckte Rotverschiebung im Spektrum ferner Galaxien an sich nicht besonders merkwürdig (Optischer Doppler-Effekt). Warum sollten sich Galaxien außerhalb der Milchstraße nicht von uns entfernen? Höchst seltsam aber ist die Beobachtung, dass der Rotverschiebungsbetrag immer mehr zunimmt, je weiter sich die jeweils betrachtete Galaxie bereits von uns entfernt hat. Unter den halbwegs diskutablen Möglichkeiten bleibt also nur die Annahme übrig, dass das Weltall explodiert, wobei die Explosionswelle - dies allerdings ist seltsam genug - nach außen immer schneller wird. Eine solche Annahme ist nicht jedermanns Sache, denn bei jeder Explosion wird die Explosionswelle normalerweise mit wachsender Ausbreitung immer langsamer; im Vakuum bliebe die Ausbreitungsgeschwindigkeit konstant, was grundsätzlich auch für das Weltall gelten müsste. Eine stets zuneh‐ mende Ausbreitungsgeschwindigkeit hingegen ist schlicht unverständlich. So entstand ersatzweise die Hypothese von der „Alterung“ des Lichtes 225 4.7 Ganz ohne Physik geht es nicht <?page no="226"?> (je länger das Licht unterwegs ist, desto „älter“, d. h. langwelliger und damit „röter“ wird es). Allerdings gibt es für ein solches Verhalten weder experimentelle Beweise noch theoretisch plausible Erklärungen. Wem also die Vorstellung von einem explodierenden Weltall mit zunehmender Aus‐ breitungsgeschwindigkeit der Explosionswelle nicht geheuer ist, der muss die Zunahme der Rotverschiebung auch heute noch für ein echtes Paradoxon halten. Ich jedenfalls kenne niemanden, der eine vernünftige Erklärung dafür parat hat. Für den Kreativen besonders wichtig sind jene Paradoxien, die von fast allen für „echt“ gehalten werden, denen man aber mit scharfem Nachdenken beikommen kann. Was viele noch für ungewöhnlich halten, ist für den guten Fachmann vielleicht bereits alltägliches Wissen, dessen Anwendung ihm selbst keineswegs ungewöhnlich vorkommt. Ein klimatologisches Beispiel zeigt, dass viele Paradoxien keine wirkli‐ chen Paradoxien sind. So wird ein vergleichsweise geringfügig angestiege‐ ner CO 2 -Gehalt der Luft (0,034 → 0,042 Vol.-%) heute für den „Treibhausef‐ fekt“ verantwortlich gemacht, obwohl Wasserdampf, physikalisch gesehen, das eigentliche Klimagas ist - wir leben immerhin auf einem Wasserpla‐ neten (! ). Bekannt ist, dass das antarktische Eis, welches ca. 90 % der irdischen Süßwasservorräte speichert, verstärkt abschmilzt. Folglich sollte der Wasserspiegel der Ozeane ansteigen. Die gegenteilige Behauptung ist deshalb als Paradoxon anzusehen. Selbst die Behauptung, der Wasserspiegel werde sich gar nicht verändern, erscheint paradox. Diese Behauptung, 1984 von sowjetischen Wissenschaftlern aufgestellt, ist jedoch bei näherem Überlegen zu verstehen. Selbstverständlich schmilzt das antarktische Eis bei globaler Erwärmung verstärkt ab, jedoch wirkt die dann immer noch sehr kalte polare Luft, die extrem trocken ist, als „Wasserdampffalle“. Die nun etwas wärmeren Ozeane führen zu verstärkter Wasserverdampfung, es kommt zu verstärktem Schneefall, und die Bilanz ist mindestens wieder ausgeglichen. In der Realität ist das allerdings mehr als fraglich: real steigt der Wasserspiegel. Besonders verlockend sind die echten Paradoxien. Ihre erstmalige Erklä‐ rung setzt voraus, dass der interessierte Kreative nicht gleich Erfinder sein kann, sondern zunächst einmal Entdecker zu sein hat. Entdeckt er jenen neuen Effekt, mit dessen Hilfe ein bislang echtes Paradoxon erstmalig erklärt werden kann, und baut darauf eigene Erfindungen auf, so ist er von der Konkurrenz nicht mehr zu schlagen. 226 4 Fehlermöglichkeiten und Denkfallen <?page no="227"?> Eindrucksvolle Beispiele für vermeintliche Paradoxien, die von der Fach‐ welt z. T. noch immer für echte Paradoxien gehalten werden, finden sich im Bereich der medizinischen Forschung. So haben es Außenseitermethoden immer dann sehr schwer, wenn die Schulmedizin darauf verweisen kann, dass eine naturwissenschaftliche Erklärung für den jeweiligen Ursache-Wirkungs-Zusammenhang fehlt bzw. der Experimentalbefund den gültigen Theorien zu widersprechen scheint. In solchen Fällen wird die Methode auch dann noch abgelehnt, wenn ihr therapeutischer Wert längst feststeht. M. v. Ardenne, Rundfunk-Fern‐ seh- und Radar-Pionier, hatte in den letzten Jahrzehnten seines Wirkens bahnbrechende medizinische Grundlagenforschung betrieben und dabei wirksame Therapiekonzepte entwickelt, die sich z. T. erst in den letzten Jahren durchsetzen konnten. M. v. Ardenne gab in einer 1980 erschienenen Arbeit als Hauptursache für die verzögerte Anerkennung seiner Methoden die zunächst noch fehlende wissenschaftliche Erklärung an, obwohl schließlich die bewiesene Wirkung entscheidend sei und nicht die Erklärung. Leider hat diese völlig zutreffende Bemerkung nicht dazu beigetragen, die Einführung der medizinischen Pioniermethoden zu beschleunigen. Vielmehr hat M. v. Ardenne auf diesem Gebiet zunächst selbst als Entdecker arbeiten müssen, ehe die - auch dann noch stark verzögerte - Anerkennung der Methoden erfolgte. Beispielhaft sei die Sauerstoff-Mehrschritt-Therapie bzw. die O 2 -Mehrschritt-Prophy‐ laxe genannt, für deren Wirkmechanismus 1980 tatsächlich noch keine befriedigende Erklärung vorlag. Jeder Mediziner sagte damals, und viele beharren heute noch darauf, dass nach erfolgtem Abschalten erhöhter Sau‐ erstoffzufuhr (z. B. per Atemmaske) sich der zwischenzeitlich verbesserte Sauerstoffstatus des Blutes fast momentan wieder auf normal niedrige Werte einstelle. M. v. Ardenne fand aber nach einer solchen Sauerstoffbehandlung stets einen über erstaunlich lange Zeitspannen verbesserten Sauerstoffsta‐ tus. Erst mit Ardennes Entdeckung des unter erhöhtem Sauerstoffangebot ausgelösten „Umschaltmechanismus“ im Bereich der Blut-Mikrozirkulation gewann die Methode mehr und mehr überzeugte Anhänger. Dieser Me‐ chanismus bewirkt, dass der Organismus in die Lage versetzt wird, über längere Zeit aus der ganz normalen Atemluft wesentlich mehr Sauerstoff als gewöhnlich aufzunehmen (v. Ardenne 1987). Während die Sauerstofftherapie zur Verbesserung des Sauerstoff-Status (und damit des Allgemeinzustandes) heute vielerorts angeboten wird und allmählich als etabliert gelten kann, ist dies für die Krebs-Mehrschritt- 227 4.7 Ganz ohne Physik geht es nicht <?page no="228"?> Therapie durchaus nicht der Fall. Wir haben es hier mit einem insbesondere subjektiv erklärbaren Akzeptanzproblem zu tun. M. von Ardenne war bereits ein weltberühmter Physiker, als er Anfang der sechziger Jahre auf die Krebsforschung umschwenkte. Er wandte die ihm geläufigen Methoden, hier also die physikalische Denkweise, konsequent auf sein neues Arbeits‐ gebiet an. Dies ist typisch für einen derartigen Wechsel, und es bringt an sich erheblichen Gewinn für das neue Arbeitsgebiet. Ardenne hatte allerdings den taktischen Fehler gemacht, die Herren Mediziner zunächst einmal gründlich zu düpieren. Er behauptete, die Medizin befinde sich - bezogen auf den Anspruch, eine naturwissenschaftliche Disziplin zu sein - noch im „Jugendstadium“ ihrer Entwicklung. Die Mediziner sahen das völlig anders. Medizinhistoriker sprechen gar von der „Allmacht des naturwissenschaftlichen Habitus“ und beschreiben die Medizin am Ende des 20. Jahrhunderts als „fast ausschließlich naturwissenschaftlich begründet“ (Barkleit 2005). Jedoch „scheinen die Ärzte selbst sich dieser Tatsache entweder nicht hinreichend bewusst gewesen zu sein, oder aber das Urteil Ardennes war schlichtweg falsch. Der behauptete nämlich, dass Mitte des 20. Jahrhunderts verschiedene wichtige Felder der Medizin noch in einer Art Jugendstadium verharrten - ein Urteil, an dem er bis zum Ende seines Lebens festhielt. Zumindest in den 1960er Jahren, als von Ardenne begann, sich biologische und medizinische Kenntnisse anzueignen, empfand es die Mehrheit der Ärzte als Provokation eines Laien, eine Krebstherapie auf der Basis physikalischer Denkmuster zu begründen … Die Übernahme physikalischer Denkweisen und Methoden stellte einen Appell an die Schulmedizin als Ganzes dar, wohingegen der Übergang zu komplexen therapeutischen Konzepten speziell die Krebsforschung betraf … Grundsätzlich ist die ‘normale Wissenschaft‘, wie Kuhn die Anhänger eines etablierten Paradigmas nennt, nicht bereit, weil nicht in der Lage, ein neues Paradigma anzuerkennen“ (Barkleit 2005). Barkleit beschreibt hier sehr treffend eine bittere Erkenntnis genereller Art, die auch dem erfolgsverwöhnten Ardenne nicht erspart blieb. Dabei ist der naturwissenschaftliche Ansatz des großen Physikers, jedenfalls für den Nichtmediziner, durchaus einleuchtend. Bereits 1923 hatte Otto Warburg, und darauf hat Ardenne stets hingewiesen, mit der Entdeckung des Gärungsstoffwechsels der Krebszellen die Grundlagen geschaffen. Ard‐ enne schlug, ausgehend von den bisherigen Versuchen der Mediziner zur Unterbindung der Glykolyse zwecks Hemmung des Krebszellenwachstums, das genaue Gegenteil vor: Durch Verstärkung der Glykolyse sollte eine 228 4 Fehlermöglichkeiten und Denkfallen <?page no="229"?> gezielte Übersäuerung des Krebsgewebes erreicht werden, wodurch dieses besonders anfällig gegenüber einer Erhöhung der Temperatur wird. Dieser Sachverhalt wird durch eine maximale Erhitzung des Körpers, die „extreme Ganzkörperhypothermie“, therapeutisch genutzt. In vielen, wenn auch nicht allen Fällen, ist mit der Übersäuerung eine Verminderung der Blutzirkulation verbunden, die nach dem (physikalischen! ) Prinzip der Rückkopplung die Primärschädigung der Krebszellen verstärkt. Anfang der siebziger Jahre ergänzte von Ardenne sein Konzept durch die gezielte Zufuhr von Sauerstoff. Damit wird die Widerstandskraft des gesunden Gewebes unterstützt, die Zerstörung der Krebszellen beschleunigt. Hinzu kommt, dass damit auch die Selektivität der Chemotherapeutika wesentlich verbessert wird: Ardenne kombinierte seine Therapie nun mit den herkömmlichen, medizinisch aner‐ kannten Methoden der Chemo- und der Strahlentherapie. Deren grausame Nebenwirkungen wurden reduziert, der gezielte Angriff auf die Krebszellen hingegen maximal unterstützt. Die klinischen Studien verliefen zunächst vielversprechend. Allerdings formierte sich eine weltweite Gegnerschaft, der es alsbald gelang, die Methode und ihren Schöpfer regelrecht zu verteufeln, die Sache gar an den Rand der Scharlatanerie zu rücken. Besonders negativ wirkte sich die Kam‐ pagne der beiden deutschen Krebsforschungszentren gegen die Methode aus. Die Gegner waren nicht bereit, das prinzipiell Neue als große Chance anzuerkennen, und eine vernünftige Kooperation anzustreben. Das Problem für den Erfinder der Methode war stets, sich meist auf die Behandlung „austherapierter“ (d. h., der von den Ärzten bereits aufgegebenen) Patienten beschränken zu müssen. Aber selbst diese Patienten waren nicht immer verloren. Nur bei einem Drittel sprach nichts mehr an, bei zwei Dritteln hingegen stagnierte der Krebs, oder es wurde sogar eine Rückbildung der Geschwulst beobachtet. Heute wird in aller Welt, bevorzugt in den USA, an der klinischen Ein‐ führung der Hyperthermie in diversen Varianten gearbeitet. Dabei wird von vielen Nachahmern mit Sorgfalt darauf geachtet, den Namen des Schöpfers der Methode nur ja nicht zu erwähnen. Zurück zu den „reinen“ physikalischen Effekten und ihrer Anwendung. Geschichtlich interessierten Lesern sei geraten, Beispiele zu sammeln. Es ergibt sich dann eine interessante Privatkartei mit den Rubriken: „Was geht“ (z. B. Sauerstofftherapie, obwohl viele Mediziner noch immer mit den Zähnen knirschen), und „Was nicht geht“ (hierher gehört vieles, aber eben 229 4.7 Ganz ohne Physik geht es nicht <?page no="230"?> nicht alles, was zunächst nicht zu „gehen“ scheint). Selbstverständlich liefert eine solche Sammlung - über den bloßen Heiterkeitswert der Rubrik „Was nicht geht“ hinaus - zunächst einmal ideengeschichtliches Material in Hülle und Fülle. Es können gelegentlich aber auch ernsthafte Lösungsansätze für die praktische Arbeit gefunden werden, und zwar immer dann, wenn phantasiebegabte, intuitiv arbeitende, ihrer Zeit geistig weit vorauseilende Autoren am Werke waren. Es sei nur an die phänomenalen Maschinen- Projekte des Universalgenies Leonardo da Vinci erinnert (Cianchi o.J.). Natürlich amüsiert uns die Rubrik „Was nicht geht“ zunächst einmal mehr als die Rubrik „Was geht“. Giambattista della Porta „erfand“ 1589 beispielsweise eine Art Falle zum Festhalten und Verschicken gesprochener Worte. In seiner „Magia naturalis sive de miraculis rerum naturalium“ beschrieb er seine Absicht, „… die Worte in der Lufft (ehe sie gehöret werden) mit bleyernen Röhren aufzufan‐ gen, und so lange verschlossen fortzuschicken, daß endlich, wenn man das Loch aufmacht, die Worte herausfahren müssen. Denn wir sehen, daß der Schall eine Zeit braucht, bis er fort kommt, und wenn er durch eine Röhre geht, daß er mitten kann verhalten werden. Und weil es etwa darinnen was ungelegen fallen mag, daß die Röhre sehr lang seyn muß, so kann man die Röhren in die Runde cirkelweise krümmen, und also die Länge erspahren, und nur wenig Platz damit einnehmen“ (Wilsmann 1943, S. 127). Wir sehen: Auch der Lügenbaron v. Münchhausen hatte mit seiner Ge‐ schichte vom eingefrorenen Hornsignal, das angeblich erst später - nach Auftauen des Posthornes - hörbar wurde, noch beste Chancen. Nachdem wir uns ziemlich ausführlich mit den Paradoxien befasst haben, kommen wir nun zu den Axiomen. Zu fragen ist, ob Axiome (Grundgesetze; unbestrittene Sachverhalte, die nicht mehr hinterfragt werden) tatsächlich immer Axiome sind. Die Antwort kann kurz gefasst werden. Einstein wurde einmal gefragt, wie er zu seiner Relativitätstheorie gekommen sei. Er antwortete: „Ich habe ein Axiom verworfen.“ Der Kreative tut gut daran, sich beständig an dieser Denkweise zu messen. Marx hatte einen persönlichen Leitspruch: „An allem ist zu zweifeln“. Offensichtlich hatten einige seiner eher schlicht gestrickten „offiziellen“ Anhänger viel zu spät gemerkt, dass es dem großen Nationalökonomen absolut ernst damit war. Nun fehlt das aktivierende Kontrastprogramm. Vielleicht liegen jene Kabarettisten sogar richtig, die meinen, der Kapitalis‐ mus habe nicht gesiegt, er sei nur übriggeblieben. 230 4 Fehlermöglichkeiten und Denkfallen <?page no="231"?> Selbstverständlich müssen Naturgesetze und Pseudoaxiome auseinander‐ gehalten werden. Von der Beschäftigung mit dem perpetuum mobile ist drin‐ gend abzuraten. Es geht um Selbstkritik, sofern Unverständliches auftaucht. Nun ist die Gefahr, ein „Perpetuum-Mobilist“ zu werden, heute eher gering. Die Gefahr, etwas mir selbst Unverständliches für unsinnig zu erklären, ist weitaus größer. Auch der Kreative ist nicht pausenlos kritisch, und schon gar nicht pausenlos selbstkritisch. Deshalb sollte das Gedankengut dieses Abschnittes, stets bezogen auf die eigenen Fachprobleme, immer wieder mit in Betracht gezogen werden. Ein abschließendes Beispiel zeigt, wohin wir kämen, falls wir dem bloßen Wunschdenken im Sinne der „reinen“ Kreativität unter (bewusster? ) Aus‐ schaltung physikalischen Grundwissens freien Lauf ließen: „Atmendes Haus bzw. atmende Verkehrsfläche. Bautechnik ist die einzig wirksame Maßnahme gegen den sauren Regen, Smog, Erd- und Seebeben, dadurch gekennzeichnet, dass unter Häusern, Gebäuden und Verkehrsflächen Hohlräume geschaffen werden, um den dringend erforderlichen Druckausgleich (Atmen) vom Flammenkern der Erde, durch die Erdkruste zu erreichen; die Entlüftung (Atmung) der Hohlräume bei Häusern und Gebäuden ist durch eine direkte Verbindung zur Atmosphäre sicherzustellen durch eine Schorn‐ steinentlüftung …“ (Thornagel, Pat. 1985/ 1987) Hier wird so ziemlich alles miteinander verrührt: Die Auswirkungen des sauren Regens, von Smog, Erd- und Seebeben, sollen offenbar mit den gleichen technischen Mitteln - künstlich geschaffenen Hohlräumen - be‐ kämpft werden, wobei in allen Fällen der wirksame Effekt ausgerechnet der „Druckausgleich zum Flammenkern der Erde“ sein soll. Wer so etwas verfasst, kann wohl kaum ernst genommen werden. Hinzu kommt die wirre Sprache. Wahrscheinlich trifft zu, dass eine wirre Sprache fast immer auf wirres Denken schließen lässt. Traurig stimmt mich, dass es so gar keinen Schutz gegen solchen Unsinn zu geben scheint. Dennoch sollten wir uns nicht all zu intensiv mit derarti‐ gen „Genies“ und ihren Geistesprodukten befassen. Es hält uns nur unnötig von der sinnvollen Arbeit ab. Eine Möglichkeit, allzu großen Unsinn auszuschließen, gab es früher übrigens durchaus: Der Erfinder musste im Zweifelfalle dem Patentprüfer ein Funktionsmuster vorführen. Etliche Karikaturen von im Patentamt bei solchen Gelegenheiten explodierenden oder anderweitig versagenden Vorrichtungen beziehen sich noch heute auf diese (leider nicht mehr aktu‐ 231 4.7 Ganz ohne Physik geht es nicht <?page no="232"?> elle) Vorgehensweise: Funktionsmuster müssen nicht mehr vorgelegt bzw. vorgeführt werden. So bleibt dem emsigen „Schreibtischerfinder“ ein umso reicheres Betätigungsfeld. Nun ließe sich einwenden, dass bei der Anmeldung komplizierter mehr‐ stufiger Prozesse ohnehin auch früher schon auf Funktionsmuster verzichtet werden musste. Umso wichtiger ist aus meiner Sicht, allzu krassen Unsinn durch eine besonders verantwortungsbewusste Patentprüfung auszusortie‐ ren. Das erfordert höchst qualifizierte Patentprüfer, denn wirklich neue Erfindungen dieser Art sind manchmal derart ungewöhnlich, dass sie bei routinierter oder zu flüchtiger Prüfung ohne böse Absicht mit in die Schublade „Unsinn“ gelangen können. 232 4 Fehlermöglichkeiten und Denkfallen <?page no="233"?> 5 Technische, künstlerische und allgemeine Kreativität Wie in der Einführung bereits erwähnt, behandeln wir in diesem Kapitel keineswegs alles, was sich zum Thema „Beziehungen zwischen allgemeiner, technischer und künstlerischer Kreativität“ sagen ließe, und zwar einfach deshalb, weil sich diese Beziehungen beim besten Willen nicht umfassend abhandeln lassen. Hinzu kommt, dass ich als Naturwissenschaftler zu wenig von Kunst verstehe. Das Kapitel hat somit den Charakter einer Studie, in der einige besonders auffällige Berührungspunkte besprochen werden. Der Grundsatz von Ernest Hemingway, nur über das zu schreiben, von dem man etwas versteht, wird allzu oft missachtet. Ich beschränke mich deshalb auf solche Verbindungen zwischen allgemeiner, technischer und künstlerischer Kreativität, die mir im Zusammenhang interessant erscheinen, und die ich aus naturwissenschaftlicher und methodischer Sicht einigermaßen beurteilen kann. 5.1 Humor, Satire, Phantastik, Semantische Intuition Die Wechselbeziehungen zwischen Humor und Kreativität sind bisher kaum untersucht worden. Wir gehen aber wohl nicht fehl in der Annahme, dass völlig humorlose Menschen gewöhnlich weder auf technischem noch auf künstlerischem Gebiet Erfolg haben. Der Terminus „Erfolg“ wird hier übrigens nur im Sinne des Hervorbringens schöpferischer Leistungen gebraucht. Äußerer Glanz, Titel, Orden, Ehrenzeichen, Geld, mit spitzem Ellenbogen erzielter Machtgewinn - d. h. die üblichen Attribute dessen, was man in den gängigen Karrierebüchern unter „Erfolg“ versteht - werden hier nicht behandelt. In diesem Sinne scheint Kreativität eine Fähigkeit zu sein, die - unabhängig vom Betätigungsfeld - eng mit dem Humor zusammenhängt. Leider finden wir dazu kaum Veröffentlichungen, obwohl zahlreiche Beispiele (Karikaturen, Sa‐ tiren, phantastische Erzählungen) den engen Zusammenhang deutlich belegen. Vielleicht wagen sich deshalb so wenige Autoren an das Thema, weil es noch immer als „unwissenschaftlich“, „unseriös“, „eines Wissenschaftlers nicht würdig“ gilt. Mir scheint, als habe die Sentenz des berühmten Physikers <?page no="234"?> und Aphoristikers Georg Christoph Lichtenberg (1742 - 1799) noch heute uneingeschränkt Gültigkeit: „Es gibt Leute, die glauben, alles wäre vernünftig, was man mit einem ernsthaften Gesicht tut“. Solche Leute glauben anscheinend zugleich, dass alles, was man mit einem heiteren Gesicht tut, irgendwie verdächtig sei. Lösen wir uns von diesem Vorurteil. Wir können davon ausgehen, dass Kreative meist Humor haben. Wenn bei einigen Kreativen die Ausdrucksformen des Humors fehlen, so hat dies möglicherweise seine Ursache in Ausbildung, Erziehung und Milieu. Vielleicht sind es auch Hemmungen, charakterliche Eigenheiten oder taktische Gesichtspunkte, die solche Menschen daran hindern, ihren Humor zu zeigen. Es ist eben nicht ganz leicht, ständig bierernste Gesichter um sich zu sehen, und dabei seinen Humor zu demonstrieren. So kann es vorkommen, dass sich unzweifelhaft humorvolle Menschen anpassen. Jedoch ist dies - nach meinem Verständnis - nur äußerlich: Zum erfolgreichen kreativen Denken kann wohl niemand auf den Humor verzichten. Wir finden bereits beim unbefangenen Überlegen eine Reihe von Merk‐ malen, die den humorvollen Menschen als Kreativen ausweisen. Fast immer werden inverse Denktechniken angewandt. Es wird das genaue Gegenteil dessen gedacht, was „man“ denkt, bzw. was allgemein üblich ist. Ver‐ meintlich nicht Verknüpfbares wird wie selbstverständlich miteinander in Verbindung gebracht. Doppelsinnigkeiten gehören zur Grundausstattung. Paradoxien werden wie unumstößliche Wahrheiten behandelt. Es werden Kombinationen aus ganz realen und beliebig absonderlichen Elementen hergestellt. Dabei sind nicht eigentlich diese Elemente absonderlich, son‐ dern sie wirken nur in der jeweiligen Kombination recht seltsam. Die Krönung finden wir im Surrealismus. Auch manche unserer Träume, die ja beim Kreativen besonders lebhaft sind, zeigen ausgesprochen surrealistische Züge. Die Bauelemente der - selbst erlebten oder für möglich gehaltenen - Wirklichkeit werden im Traum derart absonderlich kombiniert, dass sich selbst hoch Kreative manchmal noch wundern. Das betrifft in der Technik wie in der Kunst nicht nur die Verknüpfung von Objekten, sondern auch zeitliche Zusammenhänge. Diese werden, sofern in ihrer Kombination bzw. ihrer Abfolge unzutreffend, als Anachronismen bezeichnet. Anachronismen können, absichtlich eingesetzt, ausgesprochen humorvoll wirken. So verurteilte ein britischer Richter einen Liebhaber der Antike, der das Nummernschild seines Autos mit römischen Ziffern beschriftet hatte, mit der 234 5 Technische, künstlerische und allgemeine Kreativität <?page no="235"?> Begründung, dass derartige Nummernschilder seit dem Rückzug der Römer aus Großbritannien im 5. Jahrhundert nicht mehr gültig seien („Neues Deutschland“ 1983). Das Beispiel spricht für sich. Es kann nicht nur als Beleg für Anachronis‐ men gelten, sondern zugleich auch für Doppelsinnigkeiten. Die doppelsinnige Denkweise zeichnet Erfinder wie Humoristen (speziell Satiriker) aus. Es werden Dinge und Situationen sachlich, zeitlich und räumlich miteinander verknüpft, die aus „normaler“ Sicht überhaupt nicht zusammenpassen. Ein bekannter Arzt hatte sich in origineller Weise mit den Parallelen zwischen Schöpfertum und Humor befasst und seine Gedanken an den Gemeinsamkeiten des schöpferisch denkenden und handelnden Arztes sowie des Humoristen erläutert. Dabei kommt ein weiteres wichtiges Kenn‐ zeichen zur Sprache, nämlich die Aufdeckung von Missverhältnissen und deren lockere, humorvolle Interpretation. In dieser Weise wird indirekt auf die Notwendigkeit von Veränderungen hingewiesen, ohne gleich die Moraltrompete zu blasen (Bienengräber 1978): „Bekanntlich stellt der Arzt zunächst die Diagnose des Ungesunden, Abwegigen, Fehlerhaften, d. h., er gelangt zu einer Erkenntnisbildung über die abwegigen Erscheinungen. Sodann setzt er die Therapie ein. Mit ihr versucht er, Abhilfe zu schaffen und Maßnahmen für die Eliminierung des Ungesunden einzuleiten, um den normalen Zustand möglichst wieder herbeizuführen. Ganz ähnlich ist das Vorgehen des Humoristen. Auch für ihn ist die „diagnostische“ Erkennung des Fehlerhaften im Verhalten die wichtigste Voraussetzung für seine Motivation. Dann folgt die „Therapie“, die in einer humorvollen Aussage besteht und ebenso wie das Bemühen des Arztes zur Abhilfe des Abwegigen beitragen soll …“ Nicht zuletzt sei an das Altschuller-Prinzip „Umwandeln des Schädlichen in Nützliches“ erinnert. Der Kreative untersucht einen negativ besetzten (d. h. völlig unbefriedigenden) Sachverhalt so lange, bis sich irgendein positiver Aspekt zeigt (Volksmund: „Man weiß nie, wozu es gut ist“). Der Kreative kann deshalb aus einer noch so verfahrenen - anscheinend aussichtslosen - Situation bzw. einer hoffnungslos verpfuschten Technologie fast immer den Ausweg zeigen. Analog verfährt der humorvolle Mensch, insbesondere der Satiriker. Jede Katastrophe wird so lange hin- und her gewendet, bis sie ihre komische Seite offenbart. Auf dieser Arbeitsweise basiert die Tragikomödie. Wir brauchen bei unseren Betrachtungen nicht unbedingt nur an die „haupt‐ beruflichen“ Humoristen bzw. Satiriker zu denken. In vielen Unternehmen gibt es genügend Hobby-Spaßvögel, die unsere These vom engen Zusammenhang zwischen Humor und Kreativität belegen. So hängen in etlichen Konstruktions‐ 235 5.1 Humor, Satire, Phantastik, Semantische Intuition <?page no="236"?> büros Zeichnungen aus, deren Autoren meist nicht mehr zu ermitteln sind. Solche Zeichnungen werden immer wieder vervielfältigt und dabei gelegentlich mehr oder minder variiert. Als Beispiel dieser Art soll Abb. 36 dienen: Abb. 36 DIN 0-816 vom 1. April 1989: „Spezialschrauben für Fertigung und Montage“. Ein Blödel-Standard, der technischen Nonsens behandelt, und von kreativen Köpfen vielleicht gerade deshalb als anregend empfunden wird 236 5 Technische, künstlerische und allgemeine Kreativität <?page no="237"?> Illustriert wird hier das für den Kreativen so anregende Grenzgebiet zwischen Blödelei, technischer Abstrusität und beinahe ernsthaften Son‐ derkonstruktionen. Übrigens kann man für einen nicht alltäglichen Krea‐ tivitätstest solche Zeichnungen auch mit der Werkspost versenden. Man muss es dann so einrichten, dass die Reaktion des jeweiligen Empfängers von zuvor instruierten - „rein zufällig“ anwesenden - Beobachtern unauf‐ fällig registriert wird. Vom tiefsinnigen Anstarren des Standards bis zum empörten Protestgemurmel sind sämtliche Reaktionen möglich. Herzhaftes Lachen kommt nur in seltenen Ausnahmefällen vor. Sogar ungerührtes, kommentarloses Abheften in der Mappe mit den allgemeinen technischen Standards wurde bereits beobachtet. Einige Bemerkungen zu den Witzen sollen diesen Abschnitt ergänzen. Bekanntlich gibt es Leute, die hervorragend Witze erzählen können, und andere, die auf dem gleichen Gebiet hoffnungslos versagen. Ich möchte nicht so weit gehen, daraus ein Kreativitätskriterium zu machen, aber die auf diesem Gebiet Begabten haben offensichtlich ein feines Gespür für den besonderen Charakter des Witzes. Aus meiner Sicht gibt es offensichtliche Querverbindungen zu manchen Kreativitätsinstrumenten, die wir in den vorangegangenen Kapiteln im Zusammenhang mit der Lösung technischer Aufgaben kennen gelernt haben. So finden wir immer wieder das von de Bono eingeführte Prinzip der Verschiebung des Standpunktes, von dem aus eine Situation zu betrachten ist. Auch maßlose Übertreibungen in Analogie zum Operator „Abmessungen, Zeit und Kosten“ gehören zum Repertoire: Ein Objekt/ Prozess wird nach Altschuller als sehr schnell, dann als sehr langsam, ferner als sehr groß, dann sehr klein, und schließlich als sehr teuer, dann sehr billig gedacht. Auch Witze sind immer dann besonders wirksam, wenn sie mit dem Elementarprinzip der Überhöhung arbeiten. Typisch ist ferner, dass wir in vielen Witzen die Prinzipien zum Lösen Technischer Widersprüche sowie die Separationsprinzipien erkennen. In erheblich stärkerem Maße ist dies bei den Karikaturen der Fall (siehe 5.2). Nicht selten wird darin Wichtiges ganz bewusst durch offensichtlich völlig Unwichtiges ersetzt, was, ernsthaft genug vorgetragen, automatisch Heiterkeit erzeugt. Ferner wird mit an den Haaren herbeigezogenen Analogien operiert. Sehr viele Witze sind (bzw. arbeiten mit) Paradoxien, analog zu den technischen und physikalischen Widersprüchen dialektischen Charakters. Schließlich nutzen etliche Witze das elementare Umkehrprinzip: Es wird das genaue Gegenteil dessen gesagt bzw. gemacht, was wir nach den Gesetzen der Logik oder nach allgemeinem Verständnis erwartet hätten. 237 5.1 Humor, Satire, Phantastik, Semantische Intuition <?page no="238"?> Zwar ist diese Übersicht nicht vollständig, ich meine aber, dass damit die wesentlichsten Grundmuster behandelt sind. Die Übersicht erklärt nebenbei, warum uns viele Witzsammlungen recht öde erscheinen. Wir ahnen bzw. erkennen, dass in einem Buch mit 1000 Witzen nur einige Dutzend „Grundwitze“ stehen. Alle anderen sind mehr oder minder gelungene Abwandlungen des jeweils gleichen Musters. Übrigens lässt sich an dieser Stelle ganz unauffällig etwas über die Kreativität eines Gesprächs‐ partners erfahren. Wer, nachdem er einen wirklich guten Witz gehört hat, sofort voller Begeisterung eine schwache Doublette des gleichen Witzes mit nur unwesentlich modifizierten Namen, Orten, Situationen erzählt, dürfte kaum sonderlich kreativ sein. Betrachten wir einige Beispiele. So hat eine paradoxe Umkehrformulie‐ rung stets ihren besonderen Reiz. In der Rubrik „Ein Hauch von Scherz“ brachte die Ärztezeitung sehr oft hübsche Belege für diesen Typus, indem sie Bilder von Prominenten oder Schauspielern aus bekannten Filmen mit Sprechblasen-Sprüchen versah. So verblüfft uns ein schwermütig dreinbli‐ ckender Michael Douglas mit der Sprechblase: „Am glücklichsten bin ich, Herr Doktor, wenn ich unglücklich bin. Das geschieht immer öfter, also bin ich häufiger glücklich, so dass ich von Tag zu Tag unglücklicher werde“ (Ärztezeitung 2005, Nr. 142). Den Umkehr-Formulierungen eng verwandt (jedoch durchaus eigenstän‐ dig) sind Formulierungen, die Wichtiges und Unwichtiges - sofern unterein‐ ander vertauscht - in groteskem Missverhältnis zeigen. So teilt eine Ärztin ihrem offensichtlich zur Bequemlichkeit neigenden Patienten per Telefon mit: „Gewiss lässt sich die Untersuchung auch telefonisch erledigen. Atmen Sie tief ein, halten Sie die Luft an, und schlucken Sie das Handy hinunter“ (Ärztezeitung 2005, Nr. 140). Videosprechstunden könnten dieses Problem lösen. Nicht minder hübsch ist eine Szene im hochvornehmen Biedermeier- Sprechzimmer. Ein junger Arzt sagt zu seiner stark verunsicherten Patientin: „Beruhigen Sie sich, Frau Kurt: Der Vater des Kindes ist sein leiblicher Vater. Vielleicht ist er sogar mit Ihrem Ehemann identisch“ (Ärztezeitung 2005, Nr. 131). Hier wird eine Selbstverständlichkeit zur wichtigen Kernaussage gemacht, um das eigentliche Problem elegant in die zweite Reihe zu rücken - die Politik lässt grüßen. Wir erkennen eine gewisse Verwandtschaft zum Armenischen Rundfunk, in Westeuropa als „Sender Jerewan“ bekannt. Versteckt unter der Rubrik „Frage an den Armenischen Rundfunk“ machte sich der Sowjetbürger gern 238 5 Technische, künstlerische und allgemeine Kreativität <?page no="239"?> über die wirklichen Verhältnisse im Lande lustig, die bekanntlich im krassen Gegensatz zur Scheinwelt der Propaganda standen. So lautete eine dieser Fragen: „Stimmt es, dass Stepan Trofimowitsch einen PKW „Wolga“ als Prämie erhalten hat? “. Antwort des Armenischen Rundfunks: „Im Prinzip: Ja, nur war es nicht Stepan Trofimowitsch, sondern Alexander Iwanowitsch, ferner handelte es sich nicht um einen „Wolga“, sondern um ein Fahrrad, und er hat es nicht als Prämie erhalten, sondern es ist ihm gestohlen worden“. Dieses leicht irre Standardmuster („Im Prinzip: Ja …“ - und dann folgt etwas ganz anderes, oft das genaue Gegenteil des zuvor Bestätigten) kennzeichnet grundsätzlich alle Fragen an den Armenischen Rundfunk und ist somit eine gelungene Persiflage auf den offensichtlichen Missbrauch der Dialektik. Kurt Tucholsky hat das seinerzeit so ausgedrückt: „Die Dialektik erklärt, wie etwas kommen muss, und wenn es dann doch anders kommt, warum es gar nicht anders kommen konnte“. Eine besonders schöpferische Umkehrformulierung benutzt ein gestress‐ ter Klinikdirektor, dem das Hilfspersonal auszugehen droht. Er sagt zu seiner engsten Mitarbeiterin, die für die Arbeitseinteilung der Beschäftigten zuständig ist: „Wir erklären den Zivildienst zur Pflicht, wobei Zivildienstver‐ weigerer unter Umständen Dienst mit der Waffe leisten können“ (Ärztezeitung 2004, Nr. 117). Die subjektive und damit stets anregende Wirkung einer Aspektverschie‐ bung wird uns in den folgenden drei Beispielen vorgeführt: „Ein Besucher im Krankenhaus beschwert sich beim Chefarzt. ‚Herr Doktor, das ist ja das reinste Freudenhaus. Vorhin verfolgte ein Patient im Nachthemd eine Schwester‘. Der Chefarzt schaut über den Brillenrand und fragt: ‚Hat er sie denn eingeholt‘ - ‚Nein, Herr Doktor‘ - ‚Na, und da reden Sie von Freudenhaus? ‘“ (Drachenberg 2006, S. 19). „Arzt: ‚Eine eindeutige Diagnose ist nicht möglich. Das kommt wohl vom Saufen‘. Patient: ‚In Ordnung, Herr Doktor. Dann komme ich wieder, wenn Sie nüchtern sind‘“ (Drachenberg 2006, S. 18). „Ernährungsbewusste Patientin: ‚Sind Fische gesund, Herr Doktor‘? Darauf grübelt der Arzt: ‚Ich glaube schon, bei mir war jedenfalls noch keiner in Behandlung‘“ (Drachenberg 2006, S. 53). Natürlich gibt es Überschneidungen in der Zuordnung. Die beiden letzten Beispiele hätten ebenso gut zum Umkehrprinzip gepasst. 239 5.1 Humor, Satire, Phantastik, Semantische Intuition <?page no="240"?> Folgendes Beispiel kann als Analogon zu einem technischen Widerspruch aufgefasst werden, dessen Lösung bekanntlich nur auf erfinderisch-dialek‐ tische Weise, nicht aber mit herkömmlichen Mitteln gelingt. „Also, Herr Koslowski, sagt der Doktor: ‚Strengste Diät. Magerquark, grüner Salat ohne Öl, kein frisches Brot, keine Süßigkeiten, nur einmal in der Woche Fleisch ohne ein Zipfelchen Fett. Selbstverständlich: kein Alkohol, keine Zigaretten, keine körper‐ lichen Anstrengungen, keine Aufregung. Das Wichtigste für Sie ist: Optimismus und Freude am Leben‘“ (Drachenberg 2006, S. 9). Hier wird dem Patienten zugemutet, zwei unter konventionellen Aspekten völlig unverträgliche Gesichtspunkte „unter einen Hut“ zu bringen, obwohl dies, selbst für Nicht-Methodiker ersichtlich, mit herkömmlichen Mitteln nicht gelingen kann. Strenge Diät und ungebrochene Lebensfreude zu vereinen, erfordert eben mindestens ein quasi erfinderisches Herangehen. Selbst damit ist das Gelingen allerdings dermaßen unwahrscheinlich, dass die Situation eben komisch wirkt. Eine besondere Kategorie bilden die Parodien. Eine Parodie arbeitet, im Unterschied zum Witz, nicht mit fiktiven Situationen und Personen („Klein Erna“, „Graf Bobby“), sondern karikiert bekannte Situationen bzw. Personen mit den Mitteln der Überhöhung bzw. Übertreibung, auch der verspottenden Nachahmung. Besonders typische Elemente der Situation bzw. besonders auffallende Eigenheiten der parodierten Person werden entsprechend her‐ ausgestrichen bzw. bis zum Extrem gesteigert. So gesehen, haben wir es fast mit einem Analogon zu Altschullers „Operator Abmessungen-Zeit-Kosten“ (Kap. 3.1.2; 6.3) zu tun. Noch schärfer wirkt die Satire. Sie ist, nach dem „Brockhaus“ (1933), eine „Dichtungsgattung, die in ironisch-witziger Form den Widerspruch zwischen Ideal und Wirklichkeit behandelt. Sie geißelt die Torheiten, Schwächen und Laster der Menschen, die Mängel der gesellschaftlichen Zustände, die Irrungen und Verkehr‐ theiten des Staatslebens, und blüht vornehmlich in Zeiten des Übergangs und der Auflösung veralteter Zustände.“ Mischformen existieren ebenfalls, zumal manche Parodien mit mehr oder minder satirischen Mitteln gestaltet sind. Besonders überzeugende Parodien entstehen, wenn sich jemand über jemanden ärgert, sich nicht angemessen behandelt fühlt, und die Parodie deshalb aus Gründen der Vergeltung oder sogar mit Rachegefühlen verfasst. Als Beispiel sei Thomas Mann angeführt, den wir ja nach allgemeinem 240 5 Technische, künstlerische und allgemeine Kreativität <?page no="241"?> Verständnis eher nicht zu den Parodisten und Satirikern zählen (Tucholsky zum Stil Thomas Manns: „Gravitätische Langeweile“). Die Literaturhistoriker überlieferten, Mann samt Familie habe einmal - im Gästehaus auf der Insel Hiddensee - mit Gerhart Hauptmann samt Entourage zusammen gewohnt. Hauptmann, Literatur-Nobelpreisträger des Jahres 1912, habe sich Leuten gegenüber, die ihn nicht pausenlos bewunderten, sehr distanziert oder gar arrogant verhalten. Daraufhin setzte ihm Thomas Mann im „Zauberberg“ insofern ein literarisches Denkmal, als er einem Patienten der Lungenkli‐ nik in Davos, Mynheer Pieter Peeperkorn, überspitzt gezeichnete Züge des Konkurrenten verlieh. Der Hauptmann nachgesagte Alkoholkonsum wird dadurch in die Debatte gebracht, dass der Mynheer in kurzen Abständen sagt: „Jetzt labt Pieter Peeperkorn sich mit einem Schnaps“. Saufen allein genügt jedoch nicht. Wirksamer ist, den Konkurrenten als Dampfplauderer und Schwätzer zu brandmarken. Eine besonders gelungene Szene aus dem „Zauberberg“ belegt dies: „Er dämmte mit der Hand die Unterhaltung zurück, schuf Stille, wie der Dirigent, der das Durcheinander der stimmenden Instrumente zum Schweigen bringt und sein Orchester, kulturell gebietend, zum Beginn der Aufführung sammelt, - denn da sein großes, vom weißen Haar umflammtes Haupt mit den blassen Augen, den mächtigen Stirnfalten, dem langen Kinnbart und dem bloßliegenden wehenden Munde darüber unstreitig bedeutend wirkte, so fügte alles sich seiner Gebärde. Alle verstummten, sahen ihn lächelnd an, warteten, und da und dort nickte einer ihm zur Ermunterung lächelnd zu. Er sagte mit ziemlich leiser Stimme: „Meine Herrschaften. - Gut. Alles gut. Er-ledigt. Wollen Sie jedoch ins Auge fassen und nicht - keinen Augenblick - außer acht lassen, dass -Doch über diesen Punkt nichts weiter. Was auszusprechen mir obliegt, ist weniger jenes, als vor allem und einzig dies, dass wir verpflichtet sind, - dass der unverbrüchliche - ich wiederhole und lege alle Betonung auf diesen Ausdruck - der unverbrüchliche Anspruch an uns gestellt ist -Nein! Nein, meine Herrschaften, nicht so! Nicht so, daß ich etwa - Wie weit gefehlt wäre es, zu denken, daß ich - - Er-ledigt, meine Herrschaften! Vollkommen erledigt. Ich weiß uns einig in alldem, und so denn: zur Sache ! “ Er hatte nichts gesagt; aber sein Haupt erschien so unzweifelhaft bedeutend, sein Mienen- und Gestenspiel war dermaßen entschieden, eindringlich, ausdrucksvoll gewesen, dass alle … höchst Wichtiges vernommen zu haben meinten oder, sofern ihnen das Ausbleiben sachlicher und zu Ende geführter Mitteilung bewusst geworden war, dergleichen doch nicht vermissten“ (Thomas Mann 1974). 241 5.1 Humor, Satire, Phantastik, Semantische Intuition <?page no="242"?> Loriot hat später - wohl unbewusst, Plagiate hatte er nicht nötig - dieses Muster aufgegriffen und in seiner „Bundestagsrede“ ein meisterhaftes Bei‐ spiel dafür geliefert, wie es ein Volksvertreter schaffen kann, absolut nichts zu sagen - dies dafür aber mit ganzer Kraft: „Meine Damen und Herren, Politik bedeutet, und davon sollte man ausgehen, das ist doch - ohne darum herumzureden - in Anbetracht der Situation, in der wir uns befinden. Ich kann meinen politischen Standpunkt in wenige Worte zusammenfas‐ sen: Erstens das Selbstverständnis unter der Voraussetzung, zweitens, und das ist es, was wir unseren Wählern schuldig sind, drittens, die konzentrierte Beinhaltung als Kernstück eines zukunftsorientierten Parteiprogrammes. Wer hat denn, und dies muss vor diesem hohen Hause einmal unmissverständlich ausgesprochen werden. Die wirtschaftliche Entwicklung hat sich in keiner Weise … Das wird auch von meinen Gegnern nicht bestritten, ohne zu verkennen, dass in Brüssel, in London die Ansicht herrscht, die Regierung der Bundesrepublik habe da - und, meine Damen und Herren, warum auch nicht? Aber wo haben wir denn letzten Endes, ohne die Lage unnötig zuzuspitzen? Da, meine Damen und Herren, liegt doch das Hauptproblem … Meine Damen und Herren, draußen im Lande, und damit möchte ich schließen. Hier und heute stellen sich die Fragen, und ich glaube, Sie stimmen mit mir überein, wenn ich sage … Letzten Endes, wer wollte das bestreiten! Ich danke Ihnen.“ (Loriot 2003) Wir erkennen die beliebig austauschbaren Versatzstücke des routinierten politischen Plapperns: Situation, Politischer Standpunkt, Selbstverständnis, Kernstück, draußen im Lande … Mehr erkennen wir allerdings nicht, da der von jedem Inhalt sorgfältig frei gehaltene Text der Rede, aus sprachlichen Gründen wie aus Mangel an Substanz, absolut nichts enthält, und folglich auch nichts aussagen kann. Es handelt sich eben nicht nur um eine typische, sondern vielmehr um eine besonders gute, in jeder Hinsicht gelungene Bundestagsrede. Besondere Anregungen liefert dem Erfinder die phantastische Literatur, was nicht weiter erstaunlich ist, da gute Literatur dieses Genres wohl nur von kreativen Autoren verfasst werden kann. Der Nutzen ist dabei nicht vorder‐ gründig in der Präsentation verwertbarer Lösungen zu suchen, sondern eher in gedanklicher Lockerung. Gefördert wird eine Betrachtungsweise, die anscheinend Unmögliches möglich erscheinen lässt. Ich meine hier keineswegs jene primitiven Fantasy-Erzeugnisse auf Groschenheftniveau - mit viel Weltraum-Geballer und gruseligen Außerirdischen -, sondern die anspruchsvolleren Werke des Genres, in denen die Grenzen zwischen Satire, 242 5 Technische, künstlerische und allgemeine Kreativität <?page no="243"?> Phantastik und science fiction mehr oder minder verfließen. Typische Bei‐ spiele lieferte der polnische Autor Stanisław Lem. Seine „Robotermärchen“ (1976) sowie seine „Sterntagebücher“ (1978) enthalten wissenschaftliche Utopien, gehobene Blödeleien, versteckte Gesellschaftskritik, Elemente der angewandten Psychologie. Der Erfinder schätzt die - meist nur indirekten - Anregungen, welche er aus solchen Werken beziehen kann, fast ebenso sehr wie die aus „seriösen“ Quellen stammenden, direkt brauchbaren Analogien. Einen in die umgekehrte Richtung weisenden Zusammenhang schuf übri‐ gens Altschuller selbst. In etlichen Phasen seines bewegten Lebens erhielt er immer wieder einmal Berufsverbot, was die Möglichkeiten zur Verbreitung seiner widerspruchsorientierten Methode TRIZ stark einschränkte. Heute ist das kaum noch vorstellbar, aber die Sowjetadministration hatte so ihre Methoden, ehemalige Lagerhäftlinge nicht mehr aus dem Visier zu lassen. In solchen Phasen wurde Altschuller, um existieren zu können, zum erfolg‐ reichen Verfasser utopischer Schriften, und zwar unter dem Pseudonym Genrich Altov. Altschullers wissenschaftliche Phantastik zeichnet sich durch poetische Kraft, bildhafte Sprache sowie unaufdringliche Vermittlung erfin‐ dungsmethodischer Prinzipien aus. So gehen denn Unterhaltung, niveau‐ volles Amüsement, Bewusstseinserweiterung und methodischer Gewinn in seinen empfehlenswerten Erzählungen (Altov 1986) fließend ineinander über. Übrigens wurden viele Ideen der klassischen utopischen Literatur inzwi‐ schen technisch umgesetzt. Eine besonders hohe Erfolgsquote kann H. G. Wells aufweisen, gefolgt von J. Verne. Auch A. Beljajew liegt in der Spitzengruppe. Von Wells‘ Ideen sind bereits 66 % realisiert, weitere 23 % erscheinen grundsätzlich realisierbar. Verne bringt es auf 59 bzw. 32 %, Beljajew auf 42 bzw. 52 % (Altschuller 1973, S. 239). Die zitierte Quelle ist nicht mehr neu; inzwischen können wir in der Spalte „prinzipiell möglich“ sicher mit deutlich höheren Zahlen rechnen. Es scheint fast so, als hätten einige Erfinder bestimmte Werke der utopischen Literatur als direkte Vorlagen genutzt. Auch Beljajews zunächst unwahrscheinlich anmutende Idee von einem mit implantierten Haifisch‐ kiemen ausgerüsteten Unterwassermenschen ist inzwischen nicht mehr völlig unwahrscheinlich. Vielleicht ist manchem Leser noch der poetische Film „Der Amphibienmensch“ in Erinnerung. Er beruht auf Beljajews Vision. Der Held des Filmes konnte zeitweise im Ozean leben, und die dort herr‐ schenden völlig anderen Umstände machten ihm zwischenzeitlich, an Land, die allergrößten Schwierigkeiten. Wenn schon, aus ethischen Gründen und 243 5.1 Humor, Satire, Phantastik, Semantische Intuition <?page no="244"?> wegen der Abstoßungsprobleme, nicht Beljajews Originallösung, so sollte doch wenigstens ein künstlicher Kiemenapparat - statt der heute üblichen Ausrüstung - die künftige Tauchtechnik bestimmen. Die Sache ist offenbar nicht unmöglich. Unter der Typenbezeichnung LikeAFish präsentierte der is‐ raelische Erfinder Alon Bodner das Labormuster eines entsprechenden Appa‐ rates. Die zum Atmen benötigte Luft wird dabei direkt aus dem Meerwasser gewonnen. Das System arbeitet mit einer Hochgeschwindigkeitszentrifuge, um den Wasserdruck - verglichen mit dem Umgebungswasserdruck - in einem kleinen, dichten Tank stark zu reduzieren. Die im Wasser gelöste Luft entweicht und wird in einen Behälter geleitet, aus dem der Taucher versorgt wird. Diese Art der Gewinnung von Luft entspricht, nur auf einem anderen Druckniveau, dem Entweichen der Kohlensäure aus einer geöffneten Selterswasserflasche. Allerdings - keine Rose ohne Dornen - müssen mindestens 200 Liter Wasser pro Minute durch die Anlage geschickt werden, und Kritiker geben zu bedenken, dass bei hoher körperlicher Belastung des Tauchers diese Menge mindestens verdreifacht werden muss. Auch wird die bisherige Begrenzung der Tauchzeit keineswegs aufgehoben. Wenn der Antriebs-Akku für die Zentrifuge leer ist, muss der Taucher nach oben. Immerhin verspricht der Erfinder, in absehbarer Zeit ein für den Praxiseinsatz geeignetes Modell vorzulegen. Dirlewanger hat in seinem bemerkenswerten Buch „Innovation der Inno‐ vation. Vom Innovationsmanagement zum Science & Fiction Management“ überzeugende Methoden zur Nutzung systematisch eingesetzter Science- Fiction-Elemente beschrieben. Er behandelt „Parallelwelten als Experimen‐ tierräume in Unternehmen“, empfiehlt „Star Trek-View“, und gibt praktische Hinweise für das Arbeiten in derart angelegten Workshops („Schweigende Meetings - Arbeit statt Rituale“, „Alien Contact - Alien in Residence“). Ausgangspunkt von Dirlewangers Methodik ist die Erkenntnis, dass das gängige Innovationsmanagement banale, schnell umsetzbare Ideen bevor‐ zugt, obwohl wir eher ungewöhnliche, zukunftsträchtige Ideen benötigen (Dirlewanger 2016). Heitere Elemente - neben überwiegend ernsthaften - besitzt auch die Semantische Intuition. Man versteht darunter, dass der kreative Mensch beim Hören oder Lesen eines Begriffs eine mehr oder minder plastische Vorstellung vom Wesen dieses Begriffs entwickelt. Dies gilt für beliebige technische und nichttechnische Begriffe. Hört man beispielsweise das Wort „Walzwerk“, so entsteht vor dem geistigen Auge ein Bild. Man sieht förmlich das durch die Walzstraße schießende glühende Eisen, die aufmerksame, 244 5 Technische, künstlerische und allgemeine Kreativität <?page no="245"?> geschickte Bedienungsmannschaft, sieht den Leitstand mit den Messgeräten und den Computern, hört das Dröhnen der Maschinen. Wer sich ein wenig für Malerei interessiert, denkt ferner unwillkürlich an das „Eisenwalzwerk“ von Adolph von Menzel. Es zeigt den Stand der Walzwerkstechnik vor etwa 170 Jahren, verbunden mit sehr viel manueller Arbeit. So kann jeder Mensch recht individuelle Vorstellungen entwickeln, wenn ein bestimmter Begriff genannt wird. Ein Walzwerk ist dennoch eine klare Sache. Anders sieht es aus, wenn wir beliebige Kombinationen unter dem Aspekt der Semantischen Intuition betrachten. Das Ergebnis hängt nicht nur von unserer Vorstellungskraft, sondern auch vom uns bekannten Stand der Technik ab. Die berühmte „Schere im Kopf“ sagt uns dann allzu oft, dass die jeweils betrachtete Kom‐ bination „nicht funktionieren kann“. Stellen wir uns einmal vor, ein vor 140 Jahren auf der Höhe des damaligen Wissens stehender Naturwissenschaftler sei mit folgender Liste konfrontiert worden: ■ Kohlenstoff-Faser, ■ Metallisches Glas, ■ Feste Lösung, ■ Kunstharz, ■ Quellende Metalle, ■ Vitrokeram, ■ Metallkleben, ■ Silberfreie Fotografie, ■ Ferromagnetische Flüssigkeit, ■ Flüssigkristall, ■ Nasse Fotozelle, ■ Brennstoffzelle, ■ Kohlenstoffglas. Wir gehen wohl kaum fehl in der Annahme, dass ein damaliger Spitzenwis‐ senschaftler die meisten dieser Begriffe für unsinnig erklärt hätte. Heute verbirgt sich hinter jedem Begriff eine ausgereifte Lösung oder gar der Ausgangspunkt einer ganzen technologischen Kette. Somit tun wir gut daran, unsinnig erscheinende Kombinationen nicht sofort zu verwerfen. Natürlich sind die Übergänge zwischen Sprachspielerei und kreativem Denken fließend. Auch kommt es sehr darauf an, wer sol‐ che Begriffsverknüpfungen herstellt, betrachtet, durchdenkt und auf ihren möglichen Sinngehalt prüft. 245 5.1 Humor, Satire, Phantastik, Semantische Intuition <?page no="246"?> Nur wer durch intensives Denken und persönliche Erfahrung darauf vorbe‐ reitet ist, dass sich auch hinter vermeintlich sinnwidrigen Kombinationen etwas Sinnvolles verbergen könnte, wird diese Art der assoziativen Anre‐ gung zu schätzen wissen. Presse, Funk und Fernsehen gehen, gerade beim Behandeln technischer Fragen, nicht eben kleinlich mit den seltsamsten Wortverbindungen um. Der Kreative wird dies zwar belächeln, er sollte aber solche Ausrutscher zugleich als möglicherweise anregend betrachten. Abgesehen vom sprachlichen Reiz derartiger Wortkombinationen, d. h. vom unmittelbaren Heiterkeitseffekt, findet sich nach scharfem Durchdenken ab und an Verwertbares. Hier gilt: Jede noch so seltsame Wortkombination ist - in Verbindung mit harten Fakten - auf ihren möglichen technischen oder auch nichttechni‐ schen Sinn zu prüfen. Diese Verbindung mit harten Fakten ist es, welche den erfolgreichen Erfinder vom „Spinner“ unterscheidet. Wir kommen eben, mit oder ohne Bauchgefühl, nicht an Gildes Feststellung vorbei: „Tatsachen sind das Gerüst des Denkens“. 5.2 Innovative Prinzipien, demonstriert an Karikaturen Anhand einiger Beispiele aus dem Bereich der bildenden Künste, speziell einigen Karikaturen, wollen wir nun das Wirken vermeintlich rein techni‐ scher Lösungsprinzipien - „Innovativer Prinzipien“ - betrachten. Es sieht in Analogie zu den Ergebnissen von Mann und Domb (1999) tatsächlich so aus, als ob wir uns auch ohne krampfhafte Suche nach neuen bzw. zusätzlichen Prinzipien beim Lösen von Aufgaben außerhalb der Technik, und dies durchaus nicht nur - wie von Mann und Domb untersucht - im Management, der bekannten 40er Liste (3.1.2) bedienen können. Zwar schließt das die Suche nach neuen, zusätzlichen Prinzipien nicht aus, nur müssten wir dann so wie seinerzeit Altschuller vorgehen. Ehe nicht Zehntausende von Kreationen (hier: aus dem Bereich der bildenden Kunst) methodisch analysiert worden sind, sollte auf eine Erweiterung der an sich für die Technik bestimmten - nach meiner Auffassung aber multivalenten - Liste verzichtet werden. 246 5 Technische, künstlerische und allgemeine Kreativität <?page no="247"?> Abb. 37 Glöckner (Schmitt 1974) Abb. 38 Gondoliere (Schmitt 1974) Der bekannte Karikaturist Erich Schmitt hat seinerzeit im Eulenspiegel-Ver‐ lag ein hübsches „Berufslexikon“ veröffentlicht, in dem seine Sicht auf wirkliche wie auch auf frei erfundene Berufe dargestellt ist. So erkennen wir beim Glöckner, der mit Metallkugeln per Zwille auf die damit zum Klingen gebrachte Glocke schießt, zwanglos die Prinzipien „Abtrennung“ und „Unterbrochene Arbeitsweise“ (Abb. 37). Allerdings empfindet dies der Glöckner, methodisch zutreffend, wohl eher als Rückentwicklung der Technik, denn er sagt zum Pfarrer: „Hoffentlich haben Sie bald das Geld für den neuen Klöppel zusammen, Hochwürden.“ Ebenfalls dem Abtrennprinzip entspricht der Gondoliere, dem „O sole mio“ live wohl zu mühselig ist, und der deshalb per Tonbandgerät singen lässt (Abb. 38). Der Witz liegt hier in der Abweisung der Reklamation des von ei‐ ner Dame begleiteten Fahrgastes („Nein, das ist nicht meine eigene Stimme. Ist das vielleicht Ihre eigene Frau? Na also! “). Der Gummisucher (Abb. 39) 247 5.2 Innovative Prinzipien, demonstriert an Karikaturen <?page no="248"?> zeigt uns hingegen geradezu exemplarisch das Prinzip der Anpassung neben dem Prinzip der Vor-Ort-Arbeitsweise. Gummi-Schuhe, direkt auf der Haut erzeugt, sind für den Chemiker keineswegs Unsinn: Es gibt Beschleuniger für die Kaltvulkanisation von Latex (z. B. Kaliumpyrophosphat), und ein solcher Schuh/ Strumpf, der ja aus nahe liegenden Gründen nur wenige Stunden auf der Haut bleiben sollte, könnte für bestimmte Zwecke durchaus sinnvoll sein; für den in der Karikatur dargestellten Zweck ist er es gewiss. Abb. 39 Gummisucher (Schmitt 1974) Original-Legende: „Na, Fido, wie gefallen dir deine neuen Gummischuhe? “ Wir erkennen das Prinzip der Anpassung in seiner unmittelbaren Ausprä‐ gung, der Vor-Ort-Arbeitsweise, sowie das Prinzip des Ersetzens teurer langlebiger durch billige kurzlebige Produkte. Betrachten wir nun Abb. 40. Schmitt (1974, S. 80) zeigt uns, wie zwei kreative Orchestermusiker die Pause gestalten und schnell mal einige Eier‐ scheiben fabrizieren. Neben dem Prinzip „Schneller Durchgang“ erkennen wir das ebenfalls wirkende Umkehr-Prinzip: Beim allgemein bekannten Eierschneider werden die gespannten Drähte möglichst schnell durch das ruhende Ei geführt, während hier das Ei mit vergleichsweise hoher Ge‐ schwindigkeit durch die Harfensaiten geworfen wird. In beiden Fällen wird 248 5 Technische, künstlerische und allgemeine Kreativität <?page no="249"?> dafür gesorgt, dass sich das Ei nicht nennenswert deformieren kann, ehe der Trennvorgang einsetzt. Abb. 40 Prinzipien „Schneller Durchgang“ und „Umkehrung“ Original-Legende: „Nun kauft euch endlich mal einen Eierschneider“ E. Schmitt (1974, S.80) zeigt uns den umgekehrten Eierschneider: Das gekochte Ei passiert die gespannten Harfensaiten mit vergleichsweise hoher Geschwindigkeit, so dass die Trennung in Scheiben erfolgt, ehe sich das Ei deformieren kann. Selbst mit nicht straff gespannten Saiten funktioniert die Sache: ehe die Saiten nachgeben können (Massenträgheit), ist der Trennvorgang bereits beendet Ein weiteres Beispiel hat geradezu pädagogischen Wert, was die sehr häu‐ fig missverstandenen Kombinationserfindungen anbelangt. Ein Multitalent führt beim Casting vor, dass er gleichzeitig Mundharmonika und Gitarre spielen, und mit dem rechten Fuß noch einen Synthesizer bedienen kann. Der Impresario fragt, aus seiner Sicht verständlich, den offenbar bereits stark überforderten Künstler: „Was denn, und mit dem linken Bein können Sie gar nichts? “ (Abb. 41). 249 5.2 Innovative Prinzipien, demonstriert an Karikaturen <?page no="250"?> Abb. 41 Kombinationserfindungen, bei denen die Einzelfunktionen in Kombi‐ nation weniger gut als zuvor ausgeführt werden können, taugen nichts (und dürften, bei strenger Auslegung, keinen Patentschutz erhalten) Originalunterschrift (Impresario zum Künstler): „Was denn - und mit dem linken Bein können Sie gar nichts? (Schmitt 1981, S. 93) Wir sind mit dem Erfinden inzwischen vertraut und ziehen die Analogie zur Eier legenden Wollmilchsau sowie zum Schweizer Taschenmesser: Das Aufpfropfen von immer mehr Funktionen führt schließlich dazu, dass jede Einzelfunktion nur noch unvollkommen ausgeführt werden kann. Das Argument: „Ja, aber ich habe damit doch alles dabei, was ich so brauchen könnte“, ist schutzrechtlich nicht stichhaltig. Nur Kombinationen mit überraschenden Wirkungen bzw. Synergien sind an sich schutzfähig; im vorliegenden Falle handelt es sich um einen typischen „faulen“ Kompromiss. Schmitt zeigt uns, wohin das ständige „Aufpfropfen“ von immer mehr Funktionen ohne Bezug zueinander schließlich führt. Sein Universalkünstler ist ganz gewiss weder ein guter Gitarrist noch ein erträglicher Mundharmo‐ nikaspieler, noch dürfte ihm die Bedienung des Synthesizers mit dem Fuß wirklich überzeugend gelingen. Entsprechend hoch ist der Heiterkeitswert dieser selbsterklärenden Karikatur. Die bloße Anhäufung von Merkmalen wird in der Patentspruchpraxis als Aggregation bezeichnet. Aggregationen sind nicht schutzfähig. 250 5 Technische, künstlerische und allgemeine Kreativität <?page no="251"?> Da aber dem Prüfer schon seit langer Zeit keine Funktionsmuster mehr vorgelegt werden müssen, passieren Aggregationen mit z. T. sogar ver‐ schlechterten Merkmalen manchmal das Prüfverfahren. Besonders lebens‐ fähig sind solche Produkte allerdings nicht, wobei das Schweizer Taschen‐ messer, dies sei zugegeben, eine Ausnahme darstellt. Ein wesentliches TRIZ-Prinzip ist, insbesondere im Zusammenhang mit den Gesetzen der Technischen Entwicklung, das Anstreben möglichst einfa‐ cher Lösungen. Betrachten wir jedoch die reale Entwicklung verschiedener Apparate und Geräte des täglichen Gebrauchs, so kommen uns arge Zweifel. Warum nur muss einem Handy aller mögliche und unmögliche Schnick‐ schnack aufgepfropft werden? Bei jedem Apparat gibt es eine Grenze, die im Interesse des Nutzers besser nicht überschritten werden sollte. Die Marketing-Abteilung eines Elektronikkonzerns hat vor einigen Jahren in einem Anfall von Selbstkritik einmal geprüft, ob der eigene Vorstand in der Lage sei, die für den allgemeinen Markt hergestellten Geräte zu programmie‐ ren. Das Ergebnis war kläglich. Gewiss sind inzwischen Vereinfachungen vorgenommen worden, aber wohl nur unter dem aus solchen Experimenten resultierenden Druck. Die allgemeine Tendenz verläuft jedoch nach wie vor in Richtung einer Verkomplizierung. Kehren wir kurz zum Handy zurück und sehen uns an, was der Karikaturist der „Wirtschaftswoche“ noch im Jahre 2004 (! ) darüber dachte (Abb. 42). Heute sieht das allerdings völlig anders aus. Handys ohne Fotofunktion sind nicht mehr denkbar. Dokumentvorlage • Narr Verlage | A 3.3 Abb. 42 „Bleib mal eine Sekunde dran. Ich glaube, ich habe gerade ein Foto von meinem Ohr gemacht“ (Wirtschaftswoche 2004, Nr.10) Fassen wir zusammen. Unsere Beispiele zeigen, dass die von Altschuller begründete und speziell im letzten Jahrzehnt vielfältig weiter entwickelte Theorie zum Lösen erfinderischer Aufgaben weit mehr als eine nur für technische Objekte taugliche Erfindungslehre ist. Widerspruchsdarstellungen sind geeignet, technische wie auch nicht-technische Spannungszustände überzeugend auszudrücken. Für ein und dieselbe Widerspruchssituation finden sich nicht selten technische neben nicht-technischen Entsprechungen. Die bildliche Darstellung paradox erscheinender Situationen kann stets mit einem aufmerksamen Publikum rechnen. Geschickt - vor allem bewusst - eingesetzt, könnte beispielsweise Abb. 42 „Bleib mal eine Sekunde dran. Ich glaube, ich habe gerade ein Foto von meinem Ohr gemacht“ (Wirtschaftswoche 2004, Nr.10) 251 5.2 Innovative Prinzipien, demonstriert an Karikaturen <?page no="252"?> Fassen wir zusammen. Unsere Beispiele zeigen, dass die von Altschuller begründete und speziell im letzten Jahrzehnt vielfältig weiter entwickelte Theorie zum Lösen erfinderischer Aufgaben weit mehr als eine nur für tech‐ nische Objekte taugliche Erfindungslehre ist. Widerspruchsdarstellungen sind geeignet, technische wie auch nicht-technische Spannungszustände überzeugend auszudrücken. Für ein und dieselbe Widerspruchssituation fin‐ den sich nicht selten technische neben nicht-technischen Entsprechungen. Die bildliche Darstellung paradox erscheinender Situationen kann stets mit einem aufmerksamen Publikum rechnen. Geschickt - vor allem bewusst - eingesetzt, könnte beispielsweise auch die Werbung von diesem Gedanken‐ gut ganz erheblich profitieren. Sehr gute Werbung, die es in Ausnahmefällen bereits gibt, zeigt stets die typischen Merkmale des Widerspruchsdenkens. Die Anwendung der zunächst in der Technik beobachteten und genutzten Prinzipien findet sich nahezu unverfälscht im Bereich der bildenden Kunst (hier demonstriert an Karikaturen). Die Notwendigkeit für eine Suche nach weiteren „typisch nicht-technischen“ Lösungsprinzipien besteht nach meiner Überzeugung nicht. Eine solche Suche sollte, sofern sie dennoch für erforderlich gehalten wird, nicht sporadisch erfolgen. Sie müsste analog zu Altschullers aufwändiger Arbeitsweise durchgeführt werden. Im Ergebnis der Analyse möglichst vieler Karikaturen dürfte sich meine Auffassung dann wohl bestätigen. In den meisten der bisher vorgelegten Arbeiten zum Thema „Anwenden der Prinzipien zum Lösen Technischer Widersprüche für nichttechnische Entwicklungsaufgaben“ wird davon ausgegangen, dass die Prinzipien un‐ verändert angewandt werden können. Dies dürfte mit ihrem sehr hohen Abstraktionsgrad bzw. ihrer sehr allgemein gehaltenen Formulierung zu‐ sammenhängen. Interessante Beispiele bringt Müller (2006). Sie zitiert Arbeiten aus den Bereichen: Schulverwaltung, Business, Soziale Bereiche, Qualitätsmanagement und Dienstleistung. Müller (2006) schreibt dazu: „Allen Forschungsarbeiten gemeinsam ist die Erkenntnis, das Werkzeug der Erfin‐ dungsverfahren zum Bearbeiten von Managementsystemen prinzipiell anwenden zu können.“ Bewertet man solche Arbeiten, ist der subjektive Faktor zu beachten. Die an sich für rein technische Anwendungsgebiete - wenn auch sehr allgemein - formulierten Prinzipien bedürfen einer gewissen „Übersetzungsarbeit“, ehe sie sinngemäß in nichttechnischen Gebieten eingesetzt werden können. 252 5 Technische, künstlerische und allgemeine Kreativität <?page no="253"?> 5.3 Optische Wahrnehmung und Kreativität Etwa 80 % aller Menschen gehören zum so genannten „optischen“ Typ. Sie benötigen - bzw. bevorzugen - Bilder, wenn es darum geht, von einem Objekt bzw. einem System eine Vorstellung zu bekommen. Auch ich gehöre zu diesem Typ, der mit akustischen oder gar taktilen Reizen im hier diskutierten Kontext nur wenig anfangen kann. Wenn wir mit optischen Mustern arbeiten, die uns beim erfinderischen Arbeiten im Sinne von Assoziationshilfen unterstützen sollen, so müssen die verwendeten Bilder möglichst stimmen. Gilde (1985, S. 161) brachte dazu ein Beispiel. Beim Gasbrennschneiden tritt ein Sauerstoffstrahl aus einer Düse aus. Dieser Strahl soll möglichst lang sein, damit er tief in die Schnittfuge des Bleches eindringt: „Das Bild, das in allen Vorträgen und allen Fachbüchern für diesen Vorgang benutzt wurde, war der Gartenschlauch, mit dem Wasser über den Rasen gesprengt wird … In Anlehnung an die Düse des Gartenschlauchs wurde die Sauerstoffdüse konstruiert. Dabei ergaben sich Grenzen für ihre Leistungsfähigkeit, die unüberwindlich schie‐ nen. Bis eines Tages ein kluger Kopf auf die Idee kam, das Bild zu überprüfen. Der Wasserstrahl des Gartenschlauches bewegt sich in Luft. Also: Das sehr kompakte Medium Wasser geht durch das sehr dünne Medium Luft. Aber beim Brennschnitt ist es ganz anders! Das Gas Sauerstoff geht durch das Gas Luft. Hier handelt es sich also um zwei Stoffe mit gleicher Dichte. Das Bild vom Gartenschlauch war falsch und musste ersetzt werden durch einen Wasserschlauch in der Badewanne bei der Unterwassermassage“. Das Beispiel behandelt einen Fall, in dem die Wahrnehmung weitgehend mit der Realität übereinstimmt. Das Bild des Wasserstrahls in Luft bzw. des Wasserstrahls unter Wasser spiegelt einen objektiven Vorgang treffend wider - jedenfalls im Sinne anschaulicher Physik. Es gibt nun aber eine Vielzahl von Bildern, welche diese Anforderungen nicht erfüllen, und zwar aus physiologischen Gründen. Die Wahrnehmung eines solchen Bildes entspricht dann keineswegs der objektiven Realität. Wir wollen die wichtigsten Fälle besprechen. Zunächst gehört dazu die Hysterese. Die Richtung, aus der wir ein Objekt oder eine Bildfolge betrachten, beeinflusst das, was wir zu sehen glauben, wesentlich. Weiterhin gehören die Kippfiguren hierher: Je nach innerer Einstellung sehen wir ein Objekt z. B. einmal von oben, dann von unten; nach einer Weile „kippt“ das Bild in die zuvor nicht wahrgenommene Gegenrichtung um. Sehr 253 5.3 Optische Wahrnehmung und Kreativität <?page no="254"?> wichtig ist auch die große Gruppe der Optischen Täuschungen. Schließ‐ lich zählen die unmöglichen Objekte dazu, bei denen Perspektiven und Verbindungen der Teilobjekte gewählt werden, die in der Wirklichkeit nicht vorkommen, und dennoch zunächst ein reales Objekt vortäuschen. Das Feld der Wahrnehmungstäuschungen ist nicht nur von Physikern, sondern stets auch von Künstlern intensiv bearbeitet worden. Deshalb ist es interessant, wenn wir nunmehr einige Beispiele zur Erläuterung der Querverbindungen behandeln. Beginnen wir mit der Hysterese in der Wahrnehmung (Abb. 43) als Analogon zur Hysterese in der Physik. Sehen wir uns die erste Bildzeile von links nach rechts und dann die zweite Bildzeile in gleicher Richtung an, so erkennen wir mindestens bis zum ersten Bild der zweiten Zeile ein ziemlich zerknautschtes Männergesicht. Abb. 43 Hysterese in der Wahrnehmung (nach: Haken u. Haken-Krell 1994, S. 36) Erst gegen Ende der zweiten Zeile schlägt unsere Wahrnehmung in das Bild eines Mädchenkörpers um. Beginnen wir nun umgekehrt - von rechts unten nach links, fortgesetzt von rechts oben nach links -, so sehen wir das schöne Mädchen bis zum Beginn der oberen Zeile, vielleicht sogar bis zum zweiten 254 5 Technische, künstlerische und allgemeine Kreativität <?page no="255"?> Bild von rechts oben. Dieses Phänomen hängt mit der Trägheit des Sehens und Wahrnehmens zusammen. Wir sind anfänglich stets auf ein bestimmtes Muster fixiert und haben offensichtlich das Bestreben, an dem, was uns objektiv real zu sein scheint, möglichst lange festzuhalten. In methodischer Hinsicht erkennen wir Ähnlichkeiten zur Abb. 28 („Six blind men meeting the elephant“). Wir bilden uns immer wieder ein, dass das, was wir sehen, die objektive Realität ist. In Wahrheit sind wir ohne gründliche Analyse besten Falles in der Lage, Teilaspekte zu erkennen (Abb. 28), oder unser Urteil hängt unmittelbar von der gewählten Blickrichtung ab (Abb. 43). In der Physik ist die Hysterese ein gut bekannter, wichtiger Effekt. Die Magnetisierung eines ferromagnetischen Stoffes führt zur Ausrichtung der Molekularmagnete (der „Weißschen Bezirke“). Schaltet man das Magnetfeld ab, so gehen nicht alle der zuvor ausgerichteten Molekularmagnete in den ungeordneten Ausgangszustand zurück, sondern behalten geordnete Lage und Magnetismus bei („Restmagnetismus“, „Remanenz“). Schaltet man nun das Magnetfeld wieder ein, und zwar diesmal in entgegengesetzter Richtung, so erfordert die Umpolung der bereits ausgerichteten Molekular‐ magnete eine zusätzliche Kraft. Gleiches geschieht, nur in entgegengesetzter Richtung, bei abermaliger Umpolung. Die Magnetisierungskurven decken sich demgemäß nicht, sie verlaufen verschieden, je nach angewandter Magnetisierungsrichtung. Der gesamte Kurvenzug wird dann als „Hyste‐ reseschleife“ bezeichnet, deren Flächeninhalt ein Maß für die zur Ummag‐ netisierung erforderliche Arbeit ist. Falls häufiges Umpolen des Objektes notwendig ist, treten entsprechende Verluste auf - als „Hysteresewärme“. Kommen wir nun zum zweiten der physiologisch erklärbaren Wahr‐ nehmungsphänomene, dem der so genannten Kippfiguren. Wir verstehen darunter Objekte, die - je nach innerer Einstellung - so oder so gesehen und interpretiert werden können. Ein klassisches Beispiel soll demonstrie‐ ren, wovon die Rede ist. Abb. 44 zeigt uns die so genannte Schrödersche Treppe. Sie erscheint uns einmal als von rechts unten nach links oben aufsteigend, d. h. als gewöhnliche Treppe, dann aber sehen wir plötzlich, gewissermaßen aus dem Kellergeschoss, auf die Unterseite der Stufen. In welcher Reihenfolge wir die geschilderte Anordnung der Elemente im Raum (hier: der Treppenstufen) jeweils sehen, ist weit gehend individuell bedingt, desgleichen die Zeitspanne, während derer eine Ansicht bestehen bleibt, ehe sie in die alternative Ansicht umkippt. Der Versuch, sich vor Ablauf 255 5.3 Optische Wahrnehmung und Kreativität <?page no="256"?> dieser Zeitspanne zu der jeweils alternativen Sicht zu zwingen, verläuft meist erfolglos. Haken und Haken-Krell (1994, S. 231) schreiben: „Für die detaillierte experimentelle Untersuchung derartiger Kipp-Figuren ist wich‐ tig, dass die Zeit, während der eine Alternative wahrgenommen wird, näherungs‐ weise bei einer gegebenen Person und einem gegebenen Muster unter den gleichen Be‐ dingungen weitgehend konstant ist. Andererseits können beträchtliche Unterschiede in der Wahrnehmung bei verschiedenen Personen und Mustern auftreten. Dies erklärt sicher auch, warum die Ergebnisse verschiedener Autoren sehr stark voneinander abweichen können und die Umkehrzeiten zwischen 1,5 und 5,7 Sekunden variieren.“ Abb. 44 Eine klassische Kippfigur, die sogenannte Schrödersche Treppe Es scheint, als sei das Umschalten auf die jeweilige Alternativvariante mit einer Kraftanstrengung verbunden. Jedenfalls wird aus Sicht der Hirn‐ physiologie der Vergleich mit der Bewegung einer Kugel zwischen zwei Tälern in Anspruch genommen, wobei der dazwischen liegende Berg zu überwinden ist. Als Beispiel wird von Haken und Haken-Krell die Kippfigur „Zwei Gesichter oder Vase? “ verwendet (Abb. 45): Fast drängt sich der Vergleich mit der so genannten Aktivierungsenergie auf, die wir aus der Chemie kennen: Erst nach Zufuhr eines bestimmten Energiebetrages zum Überwinden einer „Schwelle“ wird ein neuer Zustand erreicht. Allerdings: Welche Art von Kraft in der Physiologie das „Umkip‐ pen“ in einen anderen Aspekt der Wahrnehmung bewirkt, wissen wir leider nicht. 256 5 Technische, künstlerische und allgemeine Kreativität <?page no="257"?> Dokumentvorlage • Narr Verlage | A 3.3 248 Abb. 44 Eine klassische Kippfigur, die soge-nannte Schrödersche Treppe Es scheint, als sei das Umschalten auf die jeweilige Alternativvariante mit einer Kraftanstrengung verbunden. Jedenfalls wird aus Sicht der Hirnphysiologie der Vergleich mit der Bewegung einer Kugel zwischen zwei Tälern in Anspruch genommen, wobei der dazwischen liegende Berg zu überwinden ist. Als Beispiel wird von Haken und Haken-Krell die Kippfigur „Zwei Gesichter oder Vase? “ verwendet (Abb. 45): Abb. 45 Bistabile Wahrnehmung: Vase oder Gesichter? (Haken u. Haken-Krell 1994, S. 177) Abb. 45 Bistabile Wahrnehmung: Vase oder Gesichter? (Haken u. Haken-Krell 1994, S. 177) Die eigentlichen optischen Täuschungen können hier nur gestreift werden. Wir wollen nur einige wenige behandeln, sofern sie dem Anliegen des Buches entsprechen bzw. zur Illustration geeignet erscheinen. Beginnen wir mit den so genannten Einbettungstäuschungen. Wir verstehen darunter Täuschungen, bei denen z. B. gerade Linien hoff‐ nungslos verbogen erscheinen, weil sie in ein System anderer Linien - bzw. in ein optisch irritierendes Muster - eingebettet sind. Dies kann beispielsweise auf dem Gebiet der Architektur zu den seltsamsten Effekten führen: Gebäudeteile oder ganze Gebäude können „krumm und schief “ erscheinen, obwohl die Bauausführung korrekt ist. Deshalb ist sorg‐ fältig darauf zu achten, welche Art von Verzierungen bzw. gestalterischen Oberflächenelementen besser nicht verwendet werden sollten. 257 5.3 Optische Wahrnehmung und Kreativität <?page no="258"?> Dokumentvorlage • Narr Verlage | A 3.3 249 Abb. 46 Einbettungstäuschung: Der Kreis (l. o.) erscheint deformiert, und die Quadrate sind, jedenfalls in unserer Wahrnehmung, hoffnungslos verzerrt (Klebe und Klebe 1984) Abb. 46 zeigt eindrucksvolle Beispiele. Insbesondere die Bilder der eingebetteten Quadrate (rechts oben und rechts unten) lassen sich beim besten Willen nicht als Quadrate wahrnehmen, obwohl wir ganz genau wissen, dass wir hier nur genarrt werden. Das Bild rechts oben zeigt uns anhand der senkrechten Linien (rechte und linke Begrenzung des Quadrats) zudem, warum uns mit spiraligen Girlanden geschmückte Masten, z. B. Maibäume oder Masten auf Festwiesen, niemals einwandfrei senkrecht erscheinen. In Bayern fällt das besonders auf, ist doch dort jeder Fahnenmast spiralig weiß-blau bemalt. Etwas anderes beobachten wir bei den perspektivischen Täuschungen. Zeichnen wir in ein Netz sich nach hinten verjüngender Perspektivlinien mehrere gleich große Personen ein, so erscheint diejenige Person am größten, die sich Abb. 46 Einbettungstäuschung: Der Kreis erscheint deformiert, die Quadrate sind anscheinend hoffnungslos verzerrt (Klebe u. Klebe 1984) Abb. 46 zeigt eindrucksvolle Beispiele. Insbesondere die Bilder der einge‐ betteten Quadrate (rechts oben und rechts unten) lassen sich beim besten Willen nicht als Quadrate wahrnehmen, obwohl wir ganz genau wissen, dass wir hier nur genarrt werden. Das Bild rechts oben zeigt uns anhand der senkrechten Linien (rechte und linke Begrenzung des Quadrats) zudem, warum uns mit spiraligen Girlanden geschmückte Masten, z. B. Maibäume oder Masten auf Festwiesen, niemals einwandfrei senkrecht erscheinen. In Bayern fällt das besonders auf, ist doch dort jeder Fahnenmast spiralig weiß-blau bemalt. Etwas anderes beobachten wir bei den perspektivischen Täuschungen. Zeichnen wir in ein Netz sich nach hinten verjüngender Perspektivlinien 258 5 Technische, künstlerische und allgemeine Kreativität <?page no="259"?> mehrere gleich große Personen ein, so erscheint diejenige Person am größ‐ ten, die sich anscheinend am weitesten entfernt vom Betrachter befindet. Unser Auge geht hier offensichtlich von seiner Erfahrung aus. Dass eine Person im Vordergrund groß ist, verwundert nicht weiter; wenn sie aber im Hintergrund gleich groß eingezeichnet wird, erscheint sie uns - so die keineswegs objektive Wahrnehmung unseres Auges - geradezu riesig. Analoges beobachten wir beim Sonnenuntergang. Während uns tagsüber die Sonne nicht allzu groß erscheint, wird sie in Horizontnähe anscheinend immer größer und geht schließlich als riesiger Feuerball unter. Tagsüber, hoch am Himmel, fehlen die Vergleichsobjekte. Erreicht die Sonne jedoch die Horizontlinie, und geht sie beispielsweise über einem 1 km entfernten Wald unter, so sehen wir die Sonnenscheibe nunmehr in Relation zu den Baumwipfeln. Wir wissen aber ganz genau, wie groß 30 m hohe Bäume sind, und somit erscheint uns die Sonnenscheibe als geradezu riesig. Hinzu kommt allerdings noch ein echter physikalischer Effekt: die wegen der Horizontalschichtung der Luft veränderte Lichtbrechung. Sie führt - man könnte es Linsenwirkung nennen - zur deutlichen Vergrößerung der Son‐ nenscheibe, verbunden mit einer Deformation zu einem in Horizontnähe fast elliptischen Gebilde, was den Effekt abermals verstärkt. Abb. 47 Bewegungstäuschung. Wandert das Auge über das Streifenmuster, so wird durch Überlagerung der neu erzeugten Bilder mit den Nachbildern die Illusion einer Wellenbewegung geschaffen (Klebe und Klebe 1984, S. 98) 259 5.3 Optische Wahrnehmung und Kreativität <?page no="260"?> Besonders eindrucksvoll sind die Bewegungstäuschungen. Wandert unser Auge über das in Abb. 47 dargestellte wellige Streifenmuster, so nimmt es die realen Linien wahr, dazu noch jene, die es bereits verlassen hat (letztere als Nachbilder). Dadurch kollidieren Nachbilder und neu erzeugte Bilder. Die Folge ist, dass wir eine Wellenbewegung wahrnehmen, obwohl das Bild sich unzweifelhaft in Ruhe befindet. Abb. 48 Kitaokas wirbelnder Strudel. Vergrößert oder verkleinert man den Abstand zum Bild, so beginnt es langsam zu rotieren (Seckel 2004, S. 93) Noch überraschender ist „Kitaokas wirbelnder Strudel“ (Abb. 48). Nähern wir unser Gesicht langsam dem Bild oder entfernen uns von ihm, so werden wir bemerken, dass das Bild zu rotieren beginnt. Auch in diesem Falle dürfte die 260 5 Technische, künstlerische und allgemeine Kreativität <?page no="261"?> Überlagerung von Bildern und Nachbildern die entscheidende Ursache der Täuschung sein. Abschließend wollen wir uns noch mit den so genannten unmöglichen Objekten befassen. Durch Verändern weniger Striche bzw. durch Verbinden von Bildteilen, deren Verbindung bei näherem Hinsehen technisch nicht statthaft ist, entstehen solche Objekte. Große Künstler (allen voran M. C. Escher) wurden von den fast unbegrenzten Möglichkeiten der Darstellung derartiger Objekte besonders angeregt. Betrachten wir zunächst einige vergleichsweise einfache Muster. Da wäre zunächst die endlose Treppe, die zugleich nach oben und nach unten führt (Abb. 49). L. S. Penrose und R. Penrose haben 1958 im British Journal of Psychology auf dieses Phänomen aufmerksam gemacht: Abb. 49 Die Penrose-Treppe (nach: Klebe und Klebe 1984, S. 78) Jeder der vier Teile der Treppe ist ohne weiteres realisierbar. Fügt man die Teile jedoch zusammen, so entsteht das unmögliche Objekt, eben jene Treppe, die stets aufwärts bzw. stets abwärts führt. Wahrscheinlich geht es meinen Lesern wie mir: Man wird - im Wortsinne - regelrecht verrückt, man erkennt, dass es sich um Unsinn handeln muss, zugleich aber erscheint das Objekt derart real, dass man es immer wieder ernst zu nehmen versucht. M. C. Escher hat dieses Muster in vielen seiner Bilder verarbeitet. Sie faszinieren besonders dann, wenn Menschen sich auf einer derartigen Treppe bewegen (Seckel 2005, S. 91). 261 5.3 Optische Wahrnehmung und Kreativität <?page no="262"?> Abb. 50 „Technische Zeichnungen“ unmöglicher Objekte, die sich beim bes‐ ten Willen nicht herstellen lassen (Klebe und Klebe 1984, S. 79) Abb. 50 macht uns mit „technischen Zeichnungen“ unmöglicher Objekte vertraut. Wir erkennen, dass dabei neben unerlaubten (technisch nicht sinn‐ haltigen) Strichverbindungen zugleich die Wirkung besonders raffinierter Kippfiguren eine entscheidende Rolle spielt. Unsere Wahrnehmung wird hoffnungslos in die Irre geführt. Noch krasser gestaltet sich die Situation im Falle der Abb. 51. Wir haben hier ein aus drei unmöglichen Teilobjekten bestehendes unmögliches Ge‐ samtobjekt vor uns. Weder die Muttern noch der Rahmen noch die Bolzen können so in der Wirklichkeit existieren. Dennoch grübelt der Betrachter hier zunächst, was denn (und wie) vielleicht doch zusammenpassen könnte. Stärker noch als in Abb. 50 bemerken wir zudem den irritierenden Anteil des Kippfiguren-Effekts. Am Beispiel des Rahmens ist zu erkennen, dass wir bei den unmöglichen Objekten doppelt hinters Licht geführt werden. Zunächst erscheint es uns so, als hätten wir es mit einem in sich verwundenen Objekt, etwa einem dreidimensionalen Analogon des Möbius-Bandes, zu tun. Dann aber bemerken wir, dass diese Interpretation allein nicht ausreicht, und wir versuchen, durch Verfolgen aller Striche dem Geheimnis auf die Spur zu kommen. Diese Übung erweist sich jedoch als verwirrend und zugleich unergiebig, so dass wir schließlich entnervt aufgeben. Genau dies hat der Schöpfer des unmöglichen Objektes beabsichtigt. 262 5 Technische, künstlerische und allgemeine Kreativität <?page no="263"?> Abb. 51 Unmögliches Objekt, bestehend aus drei unmöglichen Teilobjekten (nach: Klebe und Klebe, S. 79) Das letzte Beispiel-Objekt dieser Reihe ist eine Schlange, die sich durch ein unmögliches drei- (oder auch mehr-? ) dimensionales „D“ windet (Abb. 52). Zunächst einmal gelten alle Gesichtspunkte, die ich im Zusammenhang mit den Abbildungen 50 und 51 erläutert hatte, nur unter verschärften Bedingungen. Es ist dem Betrachter völlig unmöglich, sich im Gewirr der vorn und/ oder hinten liegenden Linien bzw. Ebenen auch nur noch annähernd zurechtzufinden. Fragen wir uns nun, welche Anregungen optische Täuschungen dem Kreativen liefern, was wir bezüglich der Querbeziehungen zwischen tech‐ nischer und künstlerischer Kreativität aus derartigen Betrachtungen lernen können, und welche wahrnehmungsphysiologischen Gesichtspunkte wir berücksichtigen sollten. Dies gilt für den Künstler, aber eben auch für den künstlerisch interessierten Laien, der bevorzugt in Technik und Wis‐ senschaft zuhause ist. Stets sind es die Querbeziehungen, welche das kreative Arbeiten besonders befruchten. 263 5.3 Optische Wahrnehmung und Kreativität <?page no="264"?> Abb. 52 Die Schlange im unmöglichen „3 D - D“ (nach: „Pardon“, Mai 1965) Al Seckel (2004 u. 2005) hat in zwei prachtvoll ausgestatteten Bänden die besten Werke der mit optischen Täuschungen und unmöglichen Objekten arbeitenden Künstler zusammengestellt. Ich kann hier wegen des Copy‐ rights - und wegen der speziellen Anforderungen an die Reproduktions‐ technik - keine Bild-Beispiele bringen und verweise meine Leser deshalb auf einige web-Adressen, unter denen faszinierende Beispiele in hervorragender Qualität zugänglich sind: M. C. Escher: www.mcescher.com Sandro del Prete: www.illusoria.com Robert Gonsalves: www.discoverygalleries.com Scott Kim: www.scottkim.com. Optische Täuschungen (insbesondere die unmöglichen Objekte) zeigen uns, dass die damit befassten Künstler in ganz besonderem Maße hervorragende Techniker sein müssen. Auch in dieser Hinsicht ist Escher als technisch perfekter Grafiker hervorzuheben. Wer das solid Handwerkliche beim Künstler unterschätzt und davon ausgeht, dass geniale Höhenflüge „einfach so“ stattfinden, dürfte gewaltig irren. Auch die Abstrakten sind kein Gegenbeweis. Vielleicht wirkt die Meinung eines Nicht-Künstlers in dieser Sache arrogant; dennoch erlaube ich mir 264 5 Technische, künstlerische und allgemeine Kreativität <?page no="265"?> die Bemerkung, dass es unter den Abstrakten auch solche geben mag, die ihr Handwerk nicht beherrschen, und die eben deshalb abstrakt malen. Bestimmte Übergangsformen lassen sich auch physiologisch erklären. So mag es durchaus vorkommen, dass manche der abstrakt malenden Künstler die äußere Realität völlig anders sehen, als wir sie üblicherweise sehen. In der Einführung zu ihrem bemerkenswerten Buch „Erfolgsgeheimnisse der Wahrnehmung“ behandeln Haken und Haken-Krell (1994) das Phänomen der Selbstorganisation des Gehirns. Sie betonen die Rolle der Umwelterfah‐ rungen, die das Gehirn bei ganz jungen Individuen macht, während sich die Synapsen (die Verbindungen zwischen den Neuronen) mehr und mehr ausbilden: „Verbindet man einem ganz jungen Kätzchen die Augen, so dass es nur noch auf dem anderen Auge sieht, so wird das ganze Gehirnareal, das zunächst für beide Augen vorgesehen war, von dem einen noch sehenden Auge beherrscht. Entfernt man bei einem späteren Entwicklungsstadium die Binde vor dem zunächst verbundenen Auge, so stehen für dieses keine Gehirnareale mehr zur Verfügung. Das Kätzchen bleibt gewissermaßen auf diesem Auge blind … Wenn bestimmte Sehfehler bei einem kleinen Kind nicht rechtzeitig behoben werden, so bilden sich die Synapsen im Gehirn falsch aus, und das Kind kann nie mehr richtig sehen. In anderen Experimenten wurden Kätzchen in einer Umgebung aufgezogen, in der nur waagerechte Streifen vorhanden waren. Die Kätzchen konnten, wenn sie erwachsen waren, keine senkrechten Streifen erkennen“ (Haken u. Haken-Krell 1994, S. 15) Experten meinen, dass William Turner, englischer Romantiker und Früh- Impressionist des 19. Jahrhunderts, bestimmte - von den Zeitgenossen nur kopfschüttelnd betrachtete - Lichteffekte tatsächlich wahrgenommen haben dürfte. Er hat sie, aus seiner Sicht realistisch, in seinen bewunderten (aber eben auch verspotteten) Bildern dargestellt. Natürlich wird jemand, der als Künstler tätig ist, nicht allein dadurch schon zum Heiligen. Bekannt ist, dass Kunst oft nach Brot geht, was bedeu‐ tet, dass wir uns hier nicht ausschließlich mit technischen und kunstwis‐ senschaftlichen Fragen befassen. Die Zusammenhänge sind oft wesentlich einfacher. So beschreibt Richard Christ in seiner Erzählung „Das Chamäleon oder Die Kunst, modern zu sein“ (1981) einen Maler, der buchstäblich alles kann, raffiniert neue Modeströmungen schafft und ausbeutet, zwar nicht glücklich damit wird, immerhin jedoch zu Ruhm, Ansehen und sehr viel Geld gelangt. Seine Einstellung gegenüber dem zahlenden Publikum ist naturgemäß nur noch zynisch. 265 5.3 Optische Wahrnehmung und Kreativität <?page no="266"?> Ich weiß nicht, wen Christ in dieser Satire, die der Wahrheit wohl nahe‐ kommt, gemeint hat. In solchen Fällen brauchen wir über handwerkliche Gesichtspunkte oder physiologische Phänomene nicht zu diskutieren. Be‐ schrieben wird ein hoch kreativer Mensch, wie etwa Picasso, der tatsächlich alles konnte, sein Publikum aber ganz sicher verachtete. Charakterliche Fragen aber stehen hier nicht zur Diskussion. Die Beschäftigung mit den Phänomenen der optischen Wahrnehmung ist für den Künstler wie für den künstlerisch interessierten Wissenschaftler bzw. Techniker wohl gleichermaßen anregend. Die Zahl der Querverbindun‐ gen zwischen den überwiegend technischen und den überwiegend künstle‐ rischen Gebieten ist hoch. Vieles geht fließend ineinander über, indirekte und selbst direkte Analogien finden sich oft. Selbst die Terminologie ist dann identisch. So bedeutet Hysterese in der Wahrnehmung im Kern dasselbe wie Hysterese in der Physik (s. o.). Das Gebiet der optischen Täuschungen sollte insbesondere von Archi‐ tekten und Designern sehr sorgfältig studiert werden. Bauten könnten ansonsten optisch völlig anders als geplant wirken, und gewisse Muster (z. B. auf Textilien) können, ohne Kenntnis der optischen Effekte entworfen, den Betrachter regelrecht „ver-rückt“ machen. Unmögliche Objekte sind nicht nur unmöglich, sondern stets auch anregend auf dem Grenzgebiet zwischen gehobener Blödelei und fast ernsthaften Sonderkonstruktionen. So sollte jeder, der an der Verbesserung seines kreativen Arbeitsvermögens interessiert ist, sich gründlich mit dem Gebiet der optischen Wahrnehmung vertraut machen. 5.4 Sehr anregend: Umkehrformulierungen und Paradoxien Kommen wir nun noch zu zwei weiteren wichtigen Quellen des kreativen Denkens und Schaffens, den Umkehrungen und den Paradoxien. Altschuller hat die besondere Bedeutung dieser beiden Elemente seines Systems stets herausgestellt, ist aber auf keine der allgemein zugänglichen Quellen näher eingegangen, was die Behandlung an dieser Stelle unserer Betrachtungen reizvoll erscheinen lässt. Das Umkehrdenken ist von derart elementarer Bedeutung, dass es sich lohnt, seine Existenz und seine Wirkung auch außerhalb der Technik umfassend zu untersuchen. Das heißt: Nicht nur das Prinzip „Umkehrung“ in der Tabelle der Prinzipien zum Lösen Technischer Widersprüche (Nr. 13 266 5 Technische, künstlerische und allgemeine Kreativität <?page no="267"?> in der alten 35er Tabelle wie auch in der neuen 40er Tabelle) ist wichtig, sondern das Umkehrdenken selbst ist es - im weitesten, fast universellen Sinne. Näheres dazu findet der interessierte Leser in einem meiner früheren Bücher (Zobel 2006 a). Hier sollen nur die wichtigsten Anregungen zur Sache aus der klassischen Literatur vermittelt werden, speziell anhand der geradezu meisterhaften Umkehr-Aphorismen von Karl Kraus (1974): „Sich keine Illusionen mehr machen: da beginnen sie erst“. „Künstler ist nur einer, der aus der Lösung ein Rätsel machen kann“. „Psychoanalyse ist jene Geisteskrankheit, für deren Therapie sie sich hält“. „Ich schnitze mir den Gegner nach meinem Pfeil zurecht“. „Er hatte eine Art, sich in den Hintergrund zu drängen, dass es allgemein Ärgernis erregte“. „An vieles, was ich erst erlebe, kann ich mich schon erinnern“. „Ein guter Psycholog ist imstande, dich ohne weiteres in seine Lage zu versetzen“. Kritiker haben Kraus sein im Grundmuster stets gleiches Umkehrdenken bzw. die sich daraus für fast jede Situation ergebenden standardisierten Umkehrformulierungen vorgeworfen. Genau diese Art des standardisierten Vorgehens ist es jedoch, welche - von Altschuller auf die Technik angewandt - die Arbeit erleichtert. Es ist überhaupt nicht einzusehen, warum man eine derart anregende Vorgehensweise nicht auch außerhalb der Technik einsetzen sollte. Eine Alternative wäre die ständige „spontane“ Neuerfindung von Umkeh‐ rungen, denn der Kreative kommt ohnehin nicht am Umkehrdenken vorbei. Hier scheiden sich die Geister: Die Vertreter des „Bauchgefühls“ meinen, dass ein Kreativer keinerlei Anleitung, und schon gar kein Schema benötige. Was aber spricht eigentlich dagegen? Gerade die großen Geister hatten und haben offensichtlich ihre „Strickmuster“; zu ihnen gehörte und gehört ganz sicher das Umkehrprinzip. So zeigt uns nicht zuletzt Tucholsky, wie es geht (1972, S. 299): Es gibt Schriftsteller, die rasen sehr exakt. Sie dichten aus dem Reinen ins Unreine“. „Ein Leser hats gut. Er kann sich seine Schriftsteller aussuchen“. 267 5.4 Sehr anregend: Umkehrformulierungen und Paradoxien <?page no="268"?> Schließlich findet sich sogar eine Sentenz, die den in der Technik so wich‐ tigen Unterschied zwischen erfinderischer Widerspruchslösung und Kompro‐ miss (von Altschuller erst nach 1950 in die Kreativitätslehre eingeführt) um mehr als zwei Jahrzehnte vorwegnimmt: „Alles ist richtig, auch das Gegenteil. Nur: „Zwar … aber“, das ist nie richtig“ (Tucholsky 1972, S. 307). Ein dialektischer Umkehrdenker war wohl auch G. Chr. Lichtenberg. Der seinerzeit berühmte Göttinger Physikprofessor (1742 - 1799) ist uns, einmal abgesehen von den Lichtenbergschen Figuren, heute weniger als Physiker, denn als meisterhafter Aphoristiker bekannt: „Die Leute, die niemals Zeit haben, tun am wenigsten“. „Er war ein solch aufmerksamer Grübler, ein Sandkorn sah er immer eher als ein Haus“. „Er schliff immer an sich und wurde am Ende stumpf, ehe er scharf wurde“. „Die Superklugheit ist eine der verächtlichsten Arten von Unklugheit“. „Die Fliege, die nicht geklappt sein will, setzt sich am sichersten auf die Klappe selbst“. „Ich behaupte, dass zu einem Dispute notwendig ist, dass wenigstens einer die Sache nicht versteht, worüber gesprochen wird, und dass in dem sogenannten lebendigen Disput in seiner höchsten Vollkommenheit beide Parteien nichts von der Sache verstehen, ja, nicht einmal wissen müssen, was sie selbst sagen“ (Lichtenberg 1961). Das letzte Zitat bringt uns nun allerdings doch ins Grübeln: Woher wusste Lichtenberg eigentlich, was ein heutiger TV-Talkmaster seine Gäste so alles - bevorzugt sinnfrei - daherplappern lässt? Nicht allzu weit entfernt vom Umkehrdenken, aber wesentlich umfassen‐ der - und methodisch wichtiger - sind die Paradoxien. Sie sind die Basis der klassischen Widerspruchsformulierungen nach Altschuller, weiterent‐ wickelt von Linde (1993) zu den „Konstruktiv-Paradoxen Entwicklungsforde‐ rungen“. Sehen wir uns deshalb zunächst einige Paradoxien aus der klassischen Literatur näher an und beginnen mit Goethe (1941): 268 5 Technische, künstlerische und allgemeine Kreativität <?page no="269"?> „Eigentlich weiß man nur, wenn man wenig weiß; mit dem Wissen wächst der Zweifel“. „Was ist das Allgemeine? Der einzelne Fall. Was ist das Besondere? Millionen Fälle“. „Alles ist gleich, alles ungleich, alles nützlich und schädlich, sprechend und stumm, vernünftig und unvernünftig“. „Es ist nichts inkonsequenter als die höchste Konsequenz, weil sie unnatürliche Phänomene hervorbringt, die zuletzt umschlagen“. Goethe hatte manchmal etwas von einem Oberlehrer. Er erläuterte dann das Paradoxon (erstes und letztes Beispiel, s. o.), was etwa so sinnvoll ist, wie das umständliche Erklären eines Witzes. Dennoch sind Goethes Paradoxien anregend und interessant. Tucholsky (1972) erfreute uns ebenfalls mit meisterhaften Paradoxien: „Die Medizin ist eine Wissenschaft, also der Missbrauch einer zu diesem Zweck erfundenen Terminologie“. „Nie geraten die Deutschen so außer sich, wie wenn sie zu sich kommen wollen“. „Das Englische ist eine einfache, aber schwere Sprache. Sie besteht aus lauter Fremdwörtern, die alle falsch ausgesprochen werden“. Auch Karl Kraus war ein Meister dieses Genres. In seinem Falle gehen Umkehrformulierungen und Paradoxien fließend ineinander über. Sehen wir uns einige Beispiele dazu an (nach: Simon 1974): „Wiewohl ich viele Leute gar nicht kenne, grüße ich sie nicht“. „Mein Respekt vor den Unbeträchtlichkeiten wächst ins Gigantische“. „Ich mische mich nicht gern in meine Privatangelegenheiten“. „Es ist gut, vieles für unbedeutend und alles für bedeutend zu halten“. „Eine der verbreitetsten Krankheiten ist die Diagnose“. „Der Vielwisser ist oft müde von dem vielen, was er wieder nicht zu denken hatte“. Selbst im täglichen Leben bedienen wir uns nicht selten paradoxer For‐ mulierungen, um einen Sachverhalt besonders klarzumachen. Allerdings funktioniert das nur, wenn unser jeweiliger Gesprächspartner Sinn für diese spezielle Art der Kommunikation hat. Sonst könnte es durchaus passieren, 269 5.4 Sehr anregend: Umkehrformulierungen und Paradoxien <?page no="270"?> dass folgende Äußerung über einen abwesenden Dritten zu schweren Missverständnissen führt: „Der steht so weit links, dass er rechts schon wieder vorguckt“. In die gleiche Richtung zielte ein Kabarettist, der sich in den ideologisch aufgeheizten sechziger Jahren damit wohl kaum Freunde machte: „Der linke Radikalismus ist eine Erfindung des rechten Radikalismus“. Wir haben uns nun mit verschiedenen Quellen befasst, die z. T. von Altschuller bei der Entwicklung von TRIZ genutzt und zitiert wurden, z. T. aber auch zum allgemeinen Assoziationsfundus des Kulturmenschen gehören, und somit unterschwellig wirken. Wie bei den Karikaturen und den optischen Phänomenen kommen wir auch hier - bei den mehr oder minder literarischen Beispielen - zu dem Schluss, dass Kreativität ein vom betrachteten Gebiet weitgehend unabhängiges Phänomen sein dürfte. Somit ist erklärlich, dass wichtige Denk- und Arbeitsmethoden Kreativer einander stark ähneln. Altschullers Verdienst ist es, unter direkter bzw. indirekter Einbeziehung sehr verschiedenartiger Quellen ein zunächst „nur“ für technische Erfindun‐ gen gedachtes System geschaffen zu haben, das nach dem Synergieprinzip allerdings weit mehr leistet als die Summe seiner Bestandteile. So haben wir es mit einer ganz ähnlichen Situation wie im Falle der Relativitätstheo‐ rie zu tun. Zwar standen Maxwell, Lorentz und Poincaré, jeder an einem anderen Abschnitt der wissenschaftlichen Front, jeweils kurz vor dem entscheidenden Durchbruch; die zunächst nicht passgerecht erscheinenden Teilerkenntnisse vereinigt und etwas umwerfend Neues daraus geschaffen hat jedoch Albert Einstein. Nun sind wir nicht solche Genies wie Maxwell, Lorentz oder Poincaré, und mit Einstein können wir uns erst recht nicht messen. Auch Raffael, Tizian, Rubens, Van Gogh, Monet und Liebermann haben Maßstäbe geschaffen, die für uns wohl kaum anwendbar sind. Dennoch hat unser Streifzug durch die Welt des kreativen Denkens und Arbeitens sicherlich gezeigt, dass es sehr viele dem Normalbürger zugängliche, erlernbare Techniken gibt. Diese sind - im allerbesten Sinne - handwerklichen Charakters. Wir sollten uns deshalb mit eben diesen Techniken vorurteilslos befassen, ganz unabhängig von unserer Ausbildung, unseren Tätigkeitsfeldern und unseren speziellen Interessen. 270 5 Technische, künstlerische und allgemeine Kreativität <?page no="271"?> Die folgenden Kapitel 6.1 und 6.3 basieren auf Texten, die in den Neuauf‐ lagen meiner Bücher „Systematisches Erfinden“ (Zobel 2019) bzw. „TRIZ FÜR ALLE“ (Zobel 2018) bereits publiziert wurden. In nunmehr völlig überarbeiteter Fassung sind sie nach meinem Verständnis für das hier behandelte Thema Erfinderisches Arbeiten besonders wichtig. Die abschließende Studie zur Frage der Künstlichen Kreativität (Kap. 6.4) habe ich aus Sicht des Erfindungspraktikers verfasst. Sie erhebt keinen Anspruch auf Vollständigkeit, soll aber die von meist wenig sachkundigen Journalisten verfassten Jubel-Artikel zur Künstlichen Intelligenz in angemes‐ sener Weise relativieren. Es bleibt dabei: Die menschliche Kreativität ist auch künftig nicht durch Algorithmen zu ersetzen! 271 5.4 Sehr anregend: Umkehrformulierungen und Paradoxien <?page no="273"?> 6 Methodische und experimentelle Studien 6.1 Wie arbeitete der große Erfinder Hugo Junkers? Ideengeschichtliche Studien haben ihren besonderen Reiz. Wenn wir er‐ fahren, wie ein befähigter, erfolgreicher Erfinder zu seinen Ergebnissen gekommen ist, so können wir zunächst einmal sehr viel unmittelbar lernen. Noch wichtiger ist - weit über das Subjektiv-Intuitive hinaus - das Erkennen des Methodischen, welches sich bei manchen Spitzenerfindern nachweisen lässt. Wir können dann die beobachtete Methode für unsere eigene Arbeit übernehmen und anwenden. Dies ist heute wichtiger denn je, zumal noch immer so getan wird, als sei jedes neue Problem absolut einmalig, und somit entsetzlich schwierig zu bearbeiten. Was wir deshalb brauchen, ist Branchen übergreifendes ana‐ logisierendes Denken. Viele unserer vermeintlich ganz neuen Probleme sind bei näherem Hinsehen längst gelöst, wenn auch - und dies zudem nur sinngemäß - in ganz anderen Fachgebieten. So reduziert sich die Arbeit des technisch Kreativen nicht selten auf die Suche nach bereits vorhandenen Lösungen, gefolgt von der nicht immer leichten Übersetzung in die Sprache des eigenen Fachgebietes. Besonders nützlich sind ideengeschichtliche Studien, wenn wir sie mit Hilfe des TRIZ-Gedankengutes durchführen. G. S. Altschuller, Schöpfer die‐ ser Methode, arbeitete zunächst ausschließlich mit dem Fundus der seiner‐ zeit vorhandenen Patente aus unterschiedlichen Branchen. Das Entstehen vieler Patente entbehrte (und entbehrt noch heute) jeglicher Einheitlichkeit: Es handelte bzw. handelt sich u. a. um Zufallserfindungen, intuitiv gefun‐ dene Lösungen, raffiniert gefüllte Patentlücken, aber auch - mit oder ohne Einsatz methodischer Elemente - um zielstrebig erarbeitete hochwertige Lösungen. So oder so ließen und lassen sich fast alle Patente auf wenige Grund‐ muster zurückführen, von Altschuller als „Prinzipien zum Lösen Technischer Widersprüche“ bezeichnet (ausführlich dazu: Kap. 3.1.2). Den Widerspruchs‐ gedanken hatte Altschuller in der Erkenntnis eingeführt, dass hochwertige Erfindungen niemals einfache Optimierungen sind, sondern dass sie wider‐ sprüchliche System-Anforderungen (z. B. heiß und zugleich kalt, leitend <?page no="274"?> und dennoch isolierend, offen und dennoch geschlossen) „unter einen Hut“ zu bringen vermögen. Der methodisch arbeitende Erfinder hat nun zu überlegen, ob ihm die in unterschiedlichen Fachgebieten angesiedelten Beispiele (es sind gleichsam „Erfindungsmuster“) etwas sagen oder nicht. Oft findet sich eine nützliche - sinngemäße - Übertragungsmöglichkeit in das eigene Fachgebiet, die zur erfinderischen Lösung führt. TRIZ verfügt, neben den Lösungsprinzipien, über ein ganzes Arsenal methodisch hochwertiger Instrumente. Genannt seien das Arbeiten mit den Physikalischen Effekten und den Technischen Trends, ferner die Separationsprinzipien, die Standards zum Lösen von Er‐ findungsaufgaben sowie die Stoff-Feld-Regeln zur Lösung der Probleme auf physikalischem Niveau. Zentral ist der erwähnte Begriff des Idealen Endresultates. Dies ist eine erfinderische Maximalzielstellung bzw. ein idea‐ lisiertes Leitbild, in der Praxis nie vollständig erreichbar, zum Zwecke des Erarbeitens hochwertiger Lösungen jedoch unbedingt zu definieren und anzustreben. Mehr zu dieser faszinierenden Methode findet sich im Kapitel 3.1.2 sowie bei Altschuller (1973), Herb, Herb und Kohnhauser (2000), Zobel (2009, 2018), Zobel u. Hartmann (2016) sowie Koltze u. Souchkov (2017). Ideengeschichtliche Studien führten früher meist zu einer unkritischen Glorifizierung des Erfinders, gipfelnd in der These vom „Göttlichen Funken“. Diese fragwürdige These bringt aber den an methodischen Hilfen interes‐ sierten Praktiker nicht weiter. Heute jedoch, da TRIZ als gut ausgearbeitetes, inzwischen von großen Konzernen genutztes System vorliegt, sind wir in einer ungleich komfortableren Lage. Wir können, mit dem TRIZ-Gedankengut „im Hinterkopf “, die Entste‐ hungsgeschichte hochwertiger Erfindungen methodisch analysieren, um von der Arbeitsweise der Spitzenerfinder zu profitieren. Voraussetzung ist, dass die relevanten Charakteristika der Vorgehensweise überliefert sind. Dies ist im Falle von Hugo Junkers, insbesondere durch eine Arbeit von Blunck (1942), glücklicherweise gegeben. Ich lehne mich, auch außerhalb der wörtlichen Zitate, daran an. Die biografischen Daten, im Wesentlichen ebenfalls nach Blunck (1942), behandle ich nur kurz. Anhand typischer Junkers-Patente können wir uns dann der erfindungsmethodischen Analyse - die bei Blunck fehlt - zuwenden. Hugo Junkers wurde 1859 in Rheydt (Rheinland) geboren. Sein Vater förderte früh die technischen Neigungen seines Sohnes. Junkers legte 1878 in Barmen seine Reifeprüfung ab. Dann studierte er an den Technischen Hochschulen Berlin, Karlsruhe und Aachen. In späteren Jahren betonte er 274 6 Methodische und experimentelle Studien <?page no="275"?> oft, wie unbefriedigend er die rein rezeptive Art des Lernens an der Schule - und später auch der Hochschule - empfand. Er versuchte mit der Fülle des zu erlernenden Stoffes fertig zu werden, war aber voll drängender Unruhe, endlich etwas Eigenständiges zu schaffen. 1883 schloss Junkers sein Studium ab und machte in Aachen sein Examen als Regierungsbauführer. Dann arbeitete er als Konstrukteur in diversen Unternehmen. Ab 1888 war er als Assistent von Oechelhäuser in Dessau mit der Verbesserung des Gasmotors befasst und entwickelte den Gegen‐ kolbenmotor. Oechelhäuser und Junkers lösten ihre Verbindung im Jahre 1893. Es folgte eine zweijährige Tätigkeit als Zivilingenieur, in der Junkers Kalorimeter und Gasbadeofen entwickelte. Für den Betrieb von Gasmotoren - auch für die allgemeine Stadtgasver‐ sorgung - war die Kenntnis des Heizwertes des eingesetzten Gases von Bedeutung. Der Heizwert wurde damals aus Gasanalyse und Gasdichte in‐ direkt bestimmt. Die Entwicklung des Kalorimeters sowie des Gasbadeofens zeigen uns nun exemplarisch, dass der hoch befähigte Erfinder Junkers, lange vor der Entwicklung der TRIZ, bereits streng methodisch vorging. Zunächst sagte sich Junkers, dass die direkte quantitative Messung der beim Verbrennungsvorgang entstehenden Wärme vorteilhafter sein müsste als die umständliche indirekte Bestimmung. Somit hätten wir als technisches Ideal für das angestrebte Kalorimeter zu formulieren: „Einfache quantitative Übertragung der Wärme vom Gas über das Metall auf das Wasser“. Anschlie‐ ßend verlief der Übergang vom Kalorimeter zum Gasbadeofen fast nahtlos. Blunck (142, S. 35) schreibt dazu: „So gut wie man die Wärme des Gases an Wasser übergehen lassen konnte, um sie dann zu messen, so gut konnte man diese Wärme auch dazu benutzen, Wasser zu wirtschaftlichen Zwecken zu erhitzen. Man konnte also aus dem Kalorimeter einen Wassererwärmer machen, und zwar … einen besonders wirtschaftlichen, da ja die Wärme nach dem Kalorimeterprinzip zu 100 Prozent ausgenutzt werden kann“. Wir haben hier einen einfachen Sonderfall des von Altschuller beschriebenen Übergangs von einem Mikrosystem zu einem Makrosystem vor uns, nämlich den Fall, dass ein großer Apparat - der Gasbadeofen bzw. Durchlauferhitzer - nach dem gleichen Prinzip wie das ursprüngliche Muster, ein ziemlich kleines Messgerät (das Kalorimeter) arbeitet. An sich sind bloße Maßstabs‐ übertragungen nicht schutzfähig. Hier aber waren zusätzliche Schritte zu gehen und wichtige Details zu klären, was die Patentierung des Gasbadeo‐ fens problemlos möglich machte. 275 6.1 Wie arbeitete der große Erfinder Hugo Junkers? <?page no="276"?> Der erste Junkers-Gasbadeofen arbeitete mit flachen Rohren als Wärme‐ austauschflächen, die im Gegenstrom betrieben wurden. Wir erkennen das erfinderische Prinzip des Zerlegens (Zerlegen in viele flache Teilströme, da stärkere Schichten die Wärme aus dem Innenbereich nur unvollkommen abgeben würden). Aber Junkers war nicht zufrieden. Bei der Bestimmung des Lösungsweges für den modernen Gasbadeofen, insbesondere in Form des Durchlauferhitzers, hat Junkers eine zu seiner Zeit gängige technische Meinung infrage gestellt. Diese Meinung betraf den Wärmeaustausch. Man war damals allgemein der Auffassung, dass eine laminare, langsame Strömung bei langer Verweil‐ zeit den besten Wärmeaustausch zwischen Gas und Metall garantieren müsste. So sahen die Apparate ursprünglich auch aus. Junkers beschritt nunmehr den genau umgekehrten Weg: hohe Geschwindigkeit, maximale Verwirbelung, sehr geringe Verweilzeit. So kam er zum Lamellenprinzip, das uns beim heutigen Gasbadeofen bzw. Durchlauferhitzer fast selbstverständ‐ lich erscheint. Die Lamellenheizfläche bildet nicht die trennende Wand zwischen den beiden wärmeaustauschenden Stoffen; sie braucht also nur für den Wärme‐ transport ausgelegt zu werden, nicht für den Wasserdruck. Die Lamellen‐ heizfläche kann deshalb aus sehr dünnem Material - zudem aus Normteilen - hergestellt werden. Während der Entwicklungsarbeit zeigte sich übrigens, dass ein wesentli‐ cher Grundsatz des Kalorimeter-Prinzips, der hundertprozentige Wärmeüber‐ gang, aufgegeben werden musste. Junkers strebte aus rein praktischen Grün‐ den nur noch etwa 80 % an. Nunmehr strömt das Gas unter Eigenzug von unten nach oben, was die Abführung der Abgase unter allen Umständen sicherte. Die neue Konstruktion wurde einfacher und billiger. Die Kondensatbildung, die sich beim alten Typ gezeigt hatte, konnte völlig ausgeschlossen werden. Insgesamt wäre es demnach beim Anstreben einer wirtschaftlichen Lösung verfehlt gewesen, an der Forderung des hundertprozentigen Wärmeaustau‐ sches starr festzuhalten. Aus methodischer Sicht erkennen wir zunächst das Prinzip der unvollständigen Lösung (eines der Altschuller-Prinzipien). Ferner werden wir, da die „80 %“ hier nicht unbedingt wörtlich genommen werden müssen, sehr an die „85 %-Regel“ von Schrauber (1985) erinnert. Sie besagt, dass alle technischen Systeme nicht unter Volllast, sondern besser bei etwa 85 % ihrer Maximalleistung gefahren werden sollten. Übrigens hat Junkers, der technische Entwicklungen immer unter Nütz‐ lichkeits- und Gebrauchswertprinzipien sah, die Entwicklung des Gasbade‐ 276 6 Methodische und experimentelle Studien <?page no="277"?> ofens im letzten Jahrzehnt des 19. Jahrhunderts in einem Umfeld betrieben, das für diese damals revolutionäre Entwicklung keineswegs reif war. Weder badete oder duschte man täglich, noch war die allgemeine Einstellung zum Stadtgas frei von Vorurteilen und Sicherheitsbedenken. So kam es, dass die Einführung des Gasbadeofens sich als ein Marketing-Problem erwies. Als besonders vorteilhaft und wesentlich hat Junkers insbesondere die Anbringung seines Flüssigkeitserhitzers an einer Wand angesehen ( Junkers 1929/ 1930). Für uns ist das heute selbstverständlich. Damals jedoch war ein spektakuläres Werbefoto erforderlich, um den Absatz endlich in Gang zu bringen. Das Foto zeigt einen kräftigen vierjährigen Jungen, der auf dem an die Wand gehängten Gasbadeofen sitzt. Damit wurde das Vorurteil des Publikums („Ein Ofen muss doch stehen! “) beseitigt, und das Produkt wurde wirtschaftlich erfolgreich. Ehe diese Werbeidee allerdings griff, musste - obgleich technisch überflüssig - den misstrauischen Käufern immer noch eine Stützkonstruktion für den Ofen angeboten werden. Die Arbeitsweise von Junkers bei der Entwicklung das Gasbadeofens war die gleiche, die er bereits bei der Entwicklung des verbesserten Gasmotors sowie des Gegenkolbenmotors angewandt hatte: „Und diese Methodik sicherte ihm wie in allen anderen Fällen den uneinholbaren Vorsprung vor der Konkurrenz. Die Probleme der Strömung, des Wärmeübergangs, der Wärmeleitung, der Abgase, des Zuges usw. wurden einzeln untersucht und gelöst. Die Eigenschaften des zu verwendenden Bleches wurden genauestens geprüft zu einer Zeit, als die weitaus meisten Ingenieure dem Leichtbau und insbesondere dem Blech mit Verachtung gegenüberstanden“ (Blunck 1942, S. 36). Junkers hatte zunächst geglaubt, sein Badeofen-Patent an einen Fabrikanten verkaufen zu können, da er sich ganz seinen Forschungen widmen wollte. Er musste aber erkennen, dass ihm niemand sein „Baby“ abnahm und er sich um Fabrikation und Vertrieb selbst zu kümmern hatte. Die Motoren- und Badeofenforschung war nicht billig gewesen. Sie hatte sein Vermögen und den Anteil, den Junkers nach der Trennung von Oechelhäuser erhalten hatte, aufgezehrt. Er brauchte einen Partner und glaubte ihn in dem Zivilingenieur Ludwig gefunden zu haben. 1895 wurde die Fabrik „Junkers & Co.“ („Ico“) gegründet. Aber die Zusammenarbeit mit Ludwig funktionierte nicht. Die Partner hatten zu unterschiedliche Arbeitsauffassungen. Ludwig war ein Bürokrat, der für die Ausnahmepersönlichkeit Junkers kein Verständnis aufbrachte: 277 6.1 Wie arbeitete der große Erfinder Hugo Junkers? <?page no="278"?> „Während Ludwig seinen Arbeitstag absaß und nach gewohntem Schema die Geschäfte erledigte, hatte Junkers überhaupt keinen Sinn für Zeit und Zeiteinteilung - eine Eigenschaft, die er sein Leben lang behielt -, wie er auch keinen Sinn für kaufmännische Kleinarbeit hatte. Er war nur besessen von seinen Ideen, und sein Gehirn arbeitete unablässig, wo er ging und stand … Stundenlange Spaziergänge unterbrachen immer wieder die Bürozeiten … Ludwig fand angesichts solcher nach seiner Meinung ungeregelten Arbeitsweise nur, dass Junkers nichts anderes tue, als den ganzen Tag spazieren gehen“ (Blunck 1942, S. 36). Der Gegensatz zu Ludwig verschärfte sich mehr und mehr, bis hin zur gerichtlichen Auseinandersetzung. Nach Lösung des Vertragsverhältnisses mit Ludwig war Junkers dann ab 1897 Alleininhaber der Ico und blieb dies bis zur großen Krise seiner Werke im Jahre 1932. Junkers behielt seine Gewohnheiten bis zum Lebensende bei. Sehr alte Dessauer erinnerten sich, in ihrer Kindheit Junkers auf seinen ausgedehnten Spaziergängen weitab der Stadt gedankenversunken angetroffen zu haben. Allgemein hieß Junkers im Volke - durchaus ehrerbietig, wegen seiner exzentrischen Gewohnheiten aber auch leicht spöttisch - nur „der Professor“, was übrigens im Wortsinne stimmte: Junkers lehrte von 1897 bis 1912 Thermodynamik an der TH Aachen, auch hatte er dort die Maschinenlabo‐ ratorien I und II zu leiten. Diese Zeit hat er oft als die glücklichste seines Lebens bezeichnet. Weniger positiv wurde sein Wirken als akademischer Lehrer von seinen Professoren‐ kollegen und von den durchschnittlichen Studenten eingeschätzt. Dies lag daran, dass er als Professor im Sinne eines Beamten tatsächlich ungeeignet war. Die Vermittlung etablierten Wissens interessierte ihn einfach nicht. Was er vortrug, hatte stets enge Verbindung zu seinen (gerade in Aachen) intensiv fortgesetzten Forschungen. So konnte von systematischer Vermitt‐ lung des für ein Examen erforderlichen Grundlagenwissens nicht die Rede sein. Die begabteren Studenten allerdings waren von seiner Persönlichkeit fasziniert. Sie spürten das Genie, sahen ihm deshalb seine aus didaktischer Sicht kaum nützlichen Vorlesungen nach, und profitierten sehr von den gemeinsamen Experimenten. Bereits in seiner Aachener Zeit, noch vor der Rückkehr nach Dessau, begann sich Junkers für Fragen der Luftfahrt zu interessieren. Auslöser war der Kontakt mit einem Kollegen, der zu den kühnsten Flugpionieren der Zeit gehörte und mit einer gewagten eigenen Konstruktion schon 1907 die ersten 278 6 Methodische und experimentelle Studien <?page no="279"?> „Hopser“ unternahm; meine Leser werden sich an den Film „Die tollkühnen Männer in ihren fliegenden Kisten“ erinnern. Die aus einem Holzgerippe mit Segeltuchbespannung bestehenden Konstruk‐ tionen, meist mit Klaviersaitendraht verspannte Doppeldecker, reizten den genialen Erfinder zu grundsätzlichen Betrachtungen. Er sagte sich, dass der Sinn dieses neuen Gerätes nicht nur im Sportlichen bzw. im Militärischen liegen könne, sondern dass das Flugzeug nach entsprechender Entwicklung unbedingt ein neues Verkehrsmittel werden müsse. Uns erscheinen derartige Grundsatzerwägungen im Nachhinein banal. Damals waren sie bahnbrechend. Die von Junkers sofort - zunächst rein gedanklich - gezogenen Schluss‐ folgerungen führten in einem einzigen Schritt zum Idealen Endresultat („IER“), um es in der Sprache der modernen Erfindungsmethodik auszudrü‐ cken. Mit Datum vom 3. Dezember 1909 wurde beim Kaiserlichen Patentamt der „Gleitflieger mit zur Aufnahme von Auftrieb erzeugenden Teilen dienen‐ den Hohlräumen“ eingereicht, seither meist als „Nurflügel-Flugzeug-Patent“ bezeichnet ( Junkers 1909/ 1910). Der Erfinder drückte den Kern der Sache wie folgt aus: „Erstens: Schaffung eines großen Widerstandsmoments der Tragflächen gegen vertikal und auf Verdrehung wirkende Angriffsmomente, indem die beiden durch Gurtungen in geeigneter Weise zu verbindenden Flächen einen „Träger“ bilden. Zweitens: Schaffung eines Hohlraumes zur Aufnahme von mitzuführenden Gegen‐ ständen (Maschinen, Behältern, Nutzlasten, Personen und so weiter) zum Zwecke der möglichsten Verringerung des Luftwiderstandes unter gleichzeitiger Ausnützung der bedeckenden Flächen zum Heben (das heißt als Tragflächen). Die Flächen erhalten zu dem Zwecke eine etwa fischförmige Gestalt. Um an einzelnen Stellen des Hohlraumes besonders hohe Körper aufnehmen zu können, ohne den Hohlraum im ganzen den Höhendimensionen dieser Körper entsprechend zu gestalten, können an diesen Stellen Ausbauten angebracht werden, welche für sich ebenfalls entsprechend den Forderungen kleinsten Widerstandes bei größter Tragkraft und geringstem Gewicht zu gestalten sind“. Nachdem wir das etwas gewundene „Patentchinesisch“ in unsere Normalspra‐ che übertragen haben, erkennen wir, dass Junkers hier das Nurflügel-Flugzeug beschreibt. Von einem Rumpf ist nicht die Rede, sondern nur von Ausbauten, die „entsprechend den Forderungen kleinsten Widerstandes bei größter Tragkraft … zu gestalten sind“. Alle Elemente des Fluggerätes sind somit am maximalen Auftrieb erheblich beteiligt (was bekanntlich für den Rumpf eines modernen Verkehrsflugzeuges nicht zutrifft). Ein Rumpf herkömmlicher Bauart hat 279 6.1 Wie arbeitete der große Erfinder Hugo Junkers? <?page no="280"?> jedoch, wie auch spätere Junkers-Konstruktionen zeigen, überragenden Pra‐ xiswert, so dass man auf eine wesentliche Beteiligung des Rumpfes an der Auftriebsfunktion schließlich doch verzichtet hat. Fast reine „Nurflügler“ sind dennoch - insbesondere im militärischen Bereich - immer wieder konstruiert worden. Ihr problematisches Flugverhalten verbietet es allerdings, unerfahrenen Piloten den Steuerknüppel anzuvertrauen. Junkers hat sich übrigens durchaus nicht sofort von seinem als revolutionär erkannten Nurflügel-Prinzip verabschiedet. Gemäß der Philosophie des den Praxisbedürfnissen angepassten partiellen Rückzugs vom absoluten Ideal (hier: dem reinen Nurflügel-Konzept) beschreibt Junkers in einem seiner nächsten Patente ein Flugzeug, das durchaus einen Rumpf hat, nur eben einen in die Flügelkonstruktion integrierten Rumpf mit hervorragenden aerodynamischen Eigenschaften. Der Text dieses Patentes ist in technischer - wenn auch nicht unbedingt in sprachlicher - Hinsicht derart mustergültig formuliert, dass ich seine entscheidenden Passagen hier auszugsweise wiedergebe: „Bei Flugzeugen, und zwar sowohl bei Einals auch Mehrdeckern, kommt es im Interesse einer möglichst geringen Motorleistung darauf an, das Verhältnis der Tragfähigkeit (Auftrieb) zum Fahrwiderstand möglichst groß zu machen. Zu diesem Zwecke wurden bisher die Tragflügel als freitragende Hohlkörper von verhältnismäßig großer Bauhöhe ausgebildet, ferner wurden die nichttragenden Teile, die mitgeführten Personen und Nutzlasten in einem langgestreckten Rumpf untergebracht, der zwecks Ausnutzung für die Antriebserzeugung die bei Tragflä‐ chen übliche keulenförmig geschweifte, unten konkave Gestalt im Längsschnitt erhielt. Diese Anordnung hat jedoch zufolge der geringen Breite des Rumpfes im Verhältnis zu seiner Länge den Nachteil, dass seine Tragfähigkeit durch den seitlichen Luftabfluss stark vermindert wird. Gemäß der Erfindung wird diese Ver‐ minderung dadurch hintangehalten, daß der die nichttragenden Teile aufnehmende Hohlkörper mit Tragflächenquerschnitt in der Längsrichtung eine größere Breite erhält, als seine Abmessung in der Fahrtrichtung beträgt. Gemäß der Erfindung wird ferner bei Anordnung eines Rumpfes mit Tragflügeln die große Ausdehnung des Auftrieb erzeugenden Körpers quer zur Fahrtrichtung durch seitlichen Anschluss von Tragflächen mit einem in der Nähe der Anschlussstelle dem Rumpflängsschnitte entsprechenden Querschnitte so gebildet, dass sich die seitlichen Flügel mit ihren Ober- und Unterflächen an die Ober- und Unterfläche des Rumpfes als eine im stetigen Übergang zusammenhängende Fläche von der üblich gewölbten Form anschließen … Die Fig. 4, 5 und 6 zeigen einen auftrieberzeugenden Rumpf zur Aufnahme von Personen und Nutzlasten mit angeschlossenen Flügeln, die in der 280 6 Methodische und experimentelle Studien <?page no="281"?> Nähe der Anschlussstelle einen dem Rumpflängsschnitt entsprechenden Querschnitt besitzen und mittels stetiger Übergangsflächen an diesen angeschlossen sind. Ihre Bauhöhe nimmt, wie dargestellt, gegen die Mitte hin bis annähernd zur Bauhöhe des Rumpfes zu. Fig. 4 ist ein Schnitt nach Linie m-n der Fig. 5, und Fig. 6 ein Schnitt nach Linie x-y der Fig. 5 …“ ( Junkers 1911/ 1915; s. a. Abb. 53). Wie weit Junkers seiner Zeit voraus war, zeigt uns der zweite Satz der Be‐ schreibung: „Zu diesem Zwecke wurden bisher die Tragflügel als freitragende Hohlkörper von verhältnismäßig großer Bauhöhe ausgebildet …“. Von „bisher … ausgebildet“ kann jedoch keine Rede sein, denn Junkers selbst war es ja, der in seinem zwei Jahre zuvor angemeldeten Nurflügel-Patent das dicke, „fischförmige“ Profil beschrieben hatte. „Bisher … ausgebildet“ bezieht sich somit auf ein in der Praxis noch gar nicht etabliertes Gebilde, von dessen Funktionstüchtigkeit Junkers sichtlich felsenfest - wie wir heute wissen, berechtigt - überzeugt war. Was uns heute selbstverständlich erscheint, widersprach der damals herrschenden Lehrmeinung: Flugzeugtragflügel hatten nach Auffassung fast aller Piloten, aber auch nicht weniger Konstrukteure, möglichst dünn und zudem plan zu sein. Selbst die Vogelflug-Studien des Segelflugpioniers Lilienthal, der sich beim Bau seiner Flugapparate bereits systematisch mit aerodynamischen Effekten befasst hatte und gewölbte Flügel verwendete, vermochten nichts daran zu ändern. Junkers aber hatte bereits in Aachen mit Windkanalversu‐ chen begonnen und die Überlegenheit der vergleichsweise dicken Profile „von etwa fischförmiger Gestalt“ bewiesen. Später baute er in Dessau einen noch größeren und besseren Windkanal, der, aufwändig restauriert, heute unter Denkmalschutz steht. Bei diesen Windkanalversuchen wurden zunächst geometrisch exakte Probekörper, dann erst Tragflächenmodelle getestet. Wie lange es dauern kann, bis prinzipiell bereits bekannte Sachverhalte endlich Eingang in die Praxis finden, ist bei Blunck (1942) nachzulesen: „Allgemein war man damals der Meinung, dass ein Körper den Luftwiderstand um so besser überwindet, je mehr er die Luft „durchschneidet“, je dünner er also vorn ist. Diese Auffassung ist kennzeichnend dafür, wie wenig der Flugzeugbau damals noch von wissenschaftlichem Geiste durchdrungen war. Denn schon der 1650 gestorbene Deckart hatte bewiesen, dass ein konischer Gegenstand, der mit seiner Grundfläche nach vorn bewegt wird, kleineren Widerstand hat, als wenn er mit seiner Spitze nach vorn bewegt wird … Bewegt man … einen konischen Gegenstand mit der Spitze 281 6.1 Wie arbeitete der große Erfinder Hugo Junkers? <?page no="282"?> nach vorn, so bildet sich an der Grundfläche eine starke Luftverdünnung und es entsteht kräftige Wirbelbildung, was erheblichen Widerstand verursacht … Bei der Bewegung mit der Grundfläche nach vorn umfließt hingegen die Luft den konischen Gegenstand viel gleichmäßiger und bildet nicht so viele Wirbel“. Junkers kehrte 1915 nach Dessau zurück und setzte seine Forschungs- und Entwicklungsarbeiten mit unverminderter Energie fort. Sein Interesse galt nun mehr und mehr dem Flugzeugbau und dem Bau von Hochleistungs- Flugzeugmotoren. Abb. 53 Flugzeug mit in die Tragfläche integriertem Rumpf (Junkers, Pat. 1911/ 1915) 282 6 Methodische und experimentelle Studien <?page no="283"?> Er hatte bereits zuvor weitere Firmen gegründet, die er sämtlich als der Forschung verpflichtet betrachtete. Als es in den zwanziger Jahren uner‐ lässlich wurde, mit der Reichsregierung finanziell eng zusammenzuarbeiten, nicht zuletzt im Zusammenhang mit dem Junkers-Zweigwerk in Fili bei Moskau, häuften sich für den nicht sehr kaufmännisch denkenden und handelnden Junkers die Schwierigkeiten. Über mehrere Fast-Insolvenzen und nach massivem, wenig erfolgreichem Eingriff des Staates, kamen die Junkers-Firmen ab 1927 wieder in Schwung. Die dann folgende Weltwirtschaftskrise erreichte in Deutschland ihren Höhepunkt mit dem 13. Juli 1931, als die Darmstädter Bank zusammenbrach. Diese Krise hatte extreme Auswirkungen auch für die Junkers-Unterneh‐ mungen. Der in der Zeit wirtschaftlicher Scheinblüte bis 1929 ausgebaute Flugmotorenbau verfügte nun über gewaltige Überkapazitäten; auch die übrigen Werke gerieten in eine schwere Absatzkrise. Monatelang konnten keine Löhne und Gehälter gezahlt werden; die Arbeiter hungerten, auch Junkers’ Familie musste sich einschränken. Junkers hatte kein privates Ver‐ mögen aufgebaut, seinen Bedarf stets nur den Firmengewinnen entnommen. Der Junkers-Konzern bestand damals juristisch aus drei Gruppen, nämlich zunächst Junkers als Einzelkaufmann (mit dem Junkerswerke-Hauptbüro, der Junkers-Forschungsanstalt, der Fabrik für Warmwasserapparate Junkers & Co., und dem Kaloriferwerk Hugo Junkers), dann dem Junkers-Flugzeug‐ werk AG., und schließlich dem Junkers-Motorenwerk G.m.b.H. Diese Tren‐ nung war jedoch nach innen rein formal. Für den Erfinder-Unternehmer hatte sie nie bestanden. Rheinischen Industriellen erläuterte Junkers im Oktober 1932 seine Sicht: „Bisher war das gesamte Werk nach innen und außen eine Einheit, nämlich eine technisch-wirtschaftliche Forschungsanstalt mit Werkstätten. Nun aber machte man … einen Unterschied zwischen den Fabriken, die für den Verkehr nach außen … als AG und G.m.b.H. geführt wurden, einerseits und der Junkers-Forschungsanstalt andererseits. Die Junkers-Werke sind entsprechend ihrer Wesensart immer in ihrem gesamten Umfang ein Unternehmen mit unbeschränkter Haftung des Eigentümers gewesen. Die persönliche Verbundenheit mit dem gesamten Unternehmen und die restlose Haftung für alle Teile ist ja Voraussetzung für technisch-wirtschaftliche Pionierarbeit; der Unternehmer muss mit seinem Werke stehen oder fallen … Für mich gab und gibt es also in meinen Werken weder eine AG noch eine G.m.b.H. Die aus Zweckmäßigkeitsgründen aufgerichteten Mauern haben für uns … niemals existiert. Plötzlich aber, mit dem Eintritt der Krise, wurden sie aufgerichtet …“ (Blunck 1942, S. 251). 283 6.1 Wie arbeitete der große Erfinder Hugo Junkers? <?page no="284"?> Wir können uns lebhaft vorstellen, wie das die Gegenseite sah, also die einzelnen Gläubiger sowie die durch erfahrene Juristen vertretene - an den technisch gesunden Werken interessierte - Reichsregierung. Gesell‐ schaftsrecht und Insolvenzrecht erlauben nun einmal eine derart hemds‐ ärmelig-individuelle Auslegung nicht. Junkers wurde deshalb stufenweise entmachtet und schließlich enteignet. Das endgültige Aus kam nach der Machtergreifung durch die Nationalsozialisten. Zwar machte die neue Re‐ gierung schamlos Werbung mit dem - ungeachtet aller Verunglimpfungen - berühmten Namen Junkers; der geniale Erfinder-Unternehmer hatte jedoch nichts mehr zu sagen und schied am 17.10.1933 zwangsweise aus dem Luftfahrtkomplex seiner Werke aus. Mehrere Faktoren hatten neben der finanziellen Schieflage zur Enteignung beigetragen. Erstens wurde im Insol‐ venzverfahren der besondere Wert der Patente angezweifelt und später nicht angemessen in die Bilanz eingestellt. Zweitens hatte Junkers, ein schlechter Menschenkenner, in seinen späteren Jahren einige nicht eben glückliche Personalentscheidungen getroffen. So kam es, dass Dünnbrettbohrer, Oh‐ renbläser, Schaumschläger und Dampfplauderer nach oben kamen, und alten, verdienten Mitarbeitern vor die Nase gesetzt wurden. Erschwerend wirkte sich auch das Fehlen klar formulierter Arbeitsverträge aus. Junkers hatte die in der Frühphase seines Unternehmens praktizierte Art, „auf Zuruf “ zu arbeiten, einfach beibehalten. Es kam daraufhin - in einem großen Konzern kaum verwunderlich - zu Streitigkeiten und Arbeitsgerichtsverfahren, die oft zugunsten der Mitarbeiter ausgingen. Junkers verließ Dessau im Oktober 1933 und kehrte nie mehr zurück. Er hatte sich zuvor bereits in München eine neue Arbeitsstätte mit nur wenigen Mitarbeitern eingerichtet, die ihm von Dessau aus gefolgt waren. Sein neues Arbeitsgebiet war der Hausbau in Metall-Leichtbauweise. Jedoch kam es nicht mehr zu praktischen Ergebnissen. Der große Mann starb am 3. Februar 1935, seinem 76. Geburtstag. Kehren wir zur Erfindungsmethodik zurück. Die prinzipielle Übertrag‐ barkeit neuer technologischer Ansätze von Branche zu Branche zeigt sich ganz besonders am Beispiel der Metall-Leichtbauweise. Junkers begann, wie geschildert, sehr dünne Bleche als Lamellen zur Intensivierung der Wär‐ meübertragung in Gasbadeöfen und Durchlauferhitzern einzusetzen. Die Abtrennung (Altschullers Prinzip Nr. 2) der sehr unterschiedlichen Funktio‐ nen Wassertransport in druckfesten Rohren einerseits und Wärmeübertragung vom Gas auf das Wasser andererseits wird durch die Lamellenkonstruktion ideal demonstriert. Die perfekte Beherrschung des Bearbeitens derart dün‐ 284 6 Methodische und experimentelle Studien <?page no="285"?> ner Bleche durch den von Junkers lebenslang geschätzten Mitarbeiter Knick, einen geschickten Klempnermeister, hat später gewiss mit dazu beigetragen, die für Junkers-Maschinen typische Wellblechbeplankung von Flugzeug‐ tragflächen und Flugzeugrümpfen voranzutreiben. Junkers hat damit die Entwicklungsaufgabe, das Flugzeug leicht und dennoch stabil zu gestalten, für die damalige Flugzeuggeneration optimal gelöst. Die Konstruktionen seiner Konkurrenten waren, bedingt durch die im Inneren der Tragflächen und Rümpfe (insbesondere bei planer Beplankung) erforderlichen massiven Holme, deutlich schwerer. Wellblechkonstruktionen dagegen, bei denen ein Teil der Kräfte nicht von den Holmen, sondern von der Beplankung selbst aufgenommen wird, entsprechen geradezu ideal dem Prinzip der Mehrzwecknutzung (Altschullers ursprüngliches Prinzip Nr. 6). Junkers hat die Stabilität diverser Typen von Wellblechen - einschließlich von solchen „höherer Ordnung“ - mit nur wenigen Mitarbeitern systema‐ tisch untersucht und für seine Flugzeugkonstruktionen konsequent genutzt (siehe dazu Abb. 54 sowie Junkers (1920/ 1921)). Das Flugzeug Ju 52 in der dreimotorigen Variante 3 m, die legendäre „Tante Ju“, ist ein an mehreren voll funktionsfähigen Oldtimerexemplaren bis heute zu bestaunendes Bei‐ spiel. Noch kühner ging Junkers bei dem in seinen letzten Lebensjahren in München begonnenen Projekt des Leichtmetall-Hausbaus vor. Er hatte sich seit etwa 1928 gedanklich bereits mit diesem Thema befasst und plante nicht nur kleine Häuser, von denen er in den frühen zwanziger Jahren bereits einige für den Tropeneinsatz gebaut hatte. Seine Vision eines insgesamt 1000 m hohen Monumentalbaues, des „Hauses der Nation“, mag uns heute be‐ fremdlich vorkommen; aber die ersten, nie fertig gestellten Entwürfe zeigen, dass sich Junkers auch in dieser Endphase seines Schaffens treu geblieben ist. Dies sei durch den Vergleich zur herkömmlichen Bauweise erläutert (Blunck 1942): Stein als klassisches Baumaterial lässt sich praktisch nur auf Druck belasten. Das schränkt seine Verwendbarkeit für Bauten, die auch auf Zug belastet werden, stark ein. Der Übergang zur Stahlskelettkonstruktion gestattet hingegen den Bau von Hochhäusern bekannter Ausführung. Die auftretenden Zugkräfte werden so gut wie ausschließlich über die Stahlskelett-Konstruktion übertragen. Die nicht auf Zug belasteten Aus‐ fachungen werden typischerweise in Stein oder Beton ausgeführt. Ein bekannter Sonderfall liegt vor, wenn die Spannbetonarmierungen mit dem Skelett verschweißt werden. Betrachten wir Gebäude mit Glasfassaden, so wird die Situation eindeutig: Hier müssen - von den armierten Decken und 285 6.1 Wie arbeitete der große Erfinder Hugo Junkers? <?page no="286"?> Zwischenwänden einmal abgesehen - fast alle Kräfte von der Skelettkon‐ struktion aufgenommen und übertragen werden. Junkers stellte nun die Analogie zum Tragflügelbau her und sagte sich, dass er auf diesem Gebiet die partielle Entlastung der Innenholme durch seine spezielle Art der Beplankung erzielt hatte. Daraus schloss er, dass bei den geplanten Hochhäusern eine entsprechend gestaltete Metallfassade nicht einfach - wie das heute gemacht wird - vorgehängt, sondern an der Übertragung der Kräfte beteiligt werden muss. Das Projekt zum „Haus der Nation“ fiel entsprechend kühn aus. Als Basis war eine säulenlose, frei tragende Halle von 300 m Grundmaß und 100 m Höhe vorgesehen, die bis 200 000 Menschen aufnehmen konnte. Über dieser Halle sollte sich, von ihr getragen, ein sich nach oben allmählich verjüngender Rundbau von 1000 m Höhe erheben. Es kommt hier nicht darauf an, ob wir solche Monumental-Bauten für wünschenswert bzw. ästhetisch halten. Wir wollen nur die konstruktive Kühnheit von Junkers und seine meisterhafte Fähigkeit zum Übertragen einmal gewonnener Erfahrungen auf vermeintlich völlig andere Gebiete betrachten („Vermeintlich“, weil bei physikalisch-abstrakter Betrachtung eigentlich der jeweils fast gleiche Fall vorliegt): ■ Die Holme innerhalb des Tragflügels können erheblich schwä‐ cher/ leichter ausgeführt werden, da die Beplankung an der Übertragung der Kräfte optimal beteiligt ist. ■ Die Stahlskelett-Konstruktion des Hochhauses kann erheblich schwä‐ cher bzw. leichter ausgeführt werden, wenn man die vorgesehenen metallischen Leichtbau-Wände und -Decken an der Übertragung der Kräfte optimal beteiligt. In beiden Fällen hatte Junkers übrigens, wie kaum anders zu erwarten, auch für die Holme bzw. Stahlskelettelemente die von ihm beherrschten Leichtbauprinzipien, speziell durch entsprechende Materialverteilung und geeignete Profilierung, konsequent angewandt. Ich fasse zusammen, welche Junkers-Arbeitsprinzipien aus Sicht der Erfindungsmethodik für uns noch heute mustergültig sind: ■ Systematisches Analogisieren Das oben erläuterte Beispiel der Leichtbauweise auf vermeintlich ganz un‐ terschiedlichen Gebieten zeigt, dass Junkers die Methode des systematischen 286 6 Methodische und experimentelle Studien <?page no="287"?> Analogisierens souverän beherrschte. Wir sollten auf unserem eigenen Arbeitsgebiet ähnlich konsequent vorgehen. Zunächst ist zu prüfen, was das Übergeordnet-Prinzipielle, physikalisch Kennzeichnende eines Systems bzw. einer Technologie ist. Dann ergeben sich fast automatisch die Übertra‐ gungsmöglichkeiten. Als Junkers 1915 den ersten Ganzmetall-Eindecker der Welt schuf, die „J 1“, brauchten er und sein Team von der Konstruktion bis zur Realisierung nur 4 Monate (! ). Abb. 54 „Wellblech für Bauwände an Luftfahrzeugen, insbes. z. Abdeckung von Tragflächen“ (Junkers, Oe. Pat. 1920/ 1921) 287 6.1 Wie arbeitete der große Erfinder Hugo Junkers? <?page no="288"?> Junkers verstand zu diesem Zeitpunkt - zumindest nach Auffassung seiner Neider - nichts vom Flugzeugbau. Dennoch holte er sich keine Flugzeug‐ spezialisten ins Haus, sondern konstruierte und realisierte das Projekt mit Hilfe seines Badeofen-Teams, eben weil er die von ihm bestens beherrschte und von der Konkurrenz verhöhnte Blech-Leichtbauweise direkt auf den Flugzeugbau übertragen wollte. ■ Definition und weitgehende Verfolgung des technischen Ideals Wir haben das Beispiel des Nurflügel-Flugzeuges bereits kennengelernt ( Junkers 1909/ 1910). Hier liegt nun der seltene Fall vor, dass ein Ideales Endresultat im Sinne Altschullers nicht nur definiert, sondern ohne Abstriche kühn zum Gegenstand einer Pioniererfindung gemacht wurde. Zwar ist eine bloße Anmeldung fast nie identisch mit dem später realisierten technischen Objekt, aber es ist doch erstaunlich, wie konsequent Junkers alle Vorurteile der damaligen Flugpioniere mit einem Federstrich überwand. Auf dem Wege zur Praxisanpassung entfernte er sich dann ganz vorsichtig vom nur schwierig zu erreichenden „absoluten“ Ideal. Ich erinnere dazu an das oben bereits im Zusammenhang erläuterte Patent, in dem ein aerodynamisch mehr oder minder vollständig integrierter Rumpf beschrieben wird ( Junkers 1909/ 1910, Abb. 53). Wie schwer es für einen Erfinder sein kann, dem als realisierbar erkannten technischen Ideal bei der Umsetzung in die Praxis weitgehend treu bleiben zu können, zeigt das Beispiel der J 1. Dieses erste Ganzmetall-Flugzeug der Welt, ein stählerner Eindecker, war in extrem kurzer Zeit konstruiert und gebaut worden. Die Generalität zeigte jedoch keineswegs die erhoffte Zu‐ stimmung. Selbst die hervorragenden technischen Daten der J 1 überzeugten nicht. So kam dieses Modell, auch wegen der Vorbehalte vieler Piloten, nur in einzelnen Exemplaren zum Einsatz. Ein berühmter Kampfflieger sagte damals zu einem Kameraden: „Sind Sie eigentlich lebensmüde, ein Flugzeug ohne Verspannung zu fliegen? “. In einem Punkt war die J 1 allerdings tatsäch‐ lich noch nicht ausgereift: Sie flog zwar schnell, stieg aber nicht genügend schnell - weil noch zu schwer gebaut. Junkers ging daraufhin zu dem damals neuen Duraluminium („Dural“) als Werkstoff über. Er konnte aber die erste Duralmaschine der Welt, den Jagdeinsitzer J 3, nicht zu Ende entwickeln, denn er fand keine Unterstützung mehr. Die Folge war, dass Junkers gegen seine Überzeugung, dass den Eindeckern die Zukunft gehört, schließlich das gepanzerte Kampfflugzeug J 4, einen Doppeldecker, konstruierte und 288 6 Methodische und experimentelle Studien <?page no="289"?> produzierte. Dies brachte ihm später den Ruf eines „Kriegsgewinnlers“ ein - zu Unrecht. Sein eigentliches Ziel war immer die Entwicklung des zivilen Luftverkehrs, und die Profite aus dem Verkauf der J 4 flossen fast ausschließlich seinen Forschungen zu. ■ Arbeiten mit sehr einfachen Versuchsvorrichtungen und Modellen Junkers stand lebenslang vor der Aufgabe, sich seine Versuchsvorrichtungen selbst bauen zu müssen. Sein Arbeitstempo ließ ihm keine Wahl. Noch ehe er in Aachen den ersten Windkanal fertig stellen konnte, begann er mit den dringendsten aerodynamischen Versuchen. Dabei nutzte er das erfinderische Prinzip der Umkehrung: Die Versuchskörper wurden nicht, wie im Windkanal, mit Luft angeblasen, sondern sie wurden mit der erforderlichen Geschwindigkeit durch die „stehende“ Luft bewegt. Als einfachste Möglichkeit erwies sich eine karussellartige Zentrifuge, in deren Zentrum der Experimentator saß, und an deren Peripherie die Versuchspro‐ file befestigt wurden. Die Daten der Versuchskörper wurden per Draht zwecks Auswertung zum Zentrum geleitet. Ansonsten wurde der mittels entsprechend positionierter Fäden bzw. mittels Rauches sichtbar gemachte Stromlinienverlauf vom Zentrum aus visuell beurteilt. Irgendwann streikten die Mitarbeiter, denen ständig schwindlig wurde, was immerhin den Bau des Windkanals sehr beschleunigte. Als Probekörper wurden zunächst die geometrisch „reinen“ Körper eingesetzt, also z. B. Zylinder, Kegel, Zylinder mit Kegelaufsatz, Kugeln, Rotationsellipsoide usw. Aus den Ergebnissen wurde geschlussfolgert, wie die Tragflügelmodelle in etwa auszusehen hatten. Diese wurden sodann gebaut, getestet und systematisch optimiert. Technikgeschichtlich interessant ist, dass die oben besprochenen Vorur‐ teile der Flugpioniere gegen gewölbte „dicke“ Profile nicht so recht verständ‐ lich sind. Bereits Bernoulli (1700 - 1782) hatte den später nach ihm benannten Effekt beschrieben: In einem strömenden Fluid ist ein Geschwindigkeitsanstieg stets von einem Druckabfall begleitet. Somit wäre zu schlussfolgern, dass an der Oberseite eines gewölbten Tragflügels mit verengten Stromlinien, und dadurch bedingt geringerem Druck, gerechnet werden müsste. Daraus ergibt sich, dass die Tragflügel nach oben „gesaugt“ werden. Genau dies entspricht unseren heutigen aerodynamischen Vorstellungen. Aber wir sollten nicht ungerecht sein. Die praktische Entwicklung der Fliegerei lag damals in den Händen mutiger Laien, denen die physikalischen Grundlagen 289 6.1 Wie arbeitete der große Erfinder Hugo Junkers? <?page no="290"?> durchaus nicht immer geläufig waren. Der erste Motorflug (1903) wird den Gebrüdern Wright zugeschrieben. Sie waren Fahrradmechaniker, und sie entwarfen ihr Fluggerät - obwohl sie sich durchaus für die Schriften älterer Flugpioniere interessiert hatten - wohl einigermaßen „freihändig“. Junkers kannte den Bernoulli-Effekt natürlich bestens. Dennoch hatte er allen Grund, seine Versuchsprofile sorgfältig zu untersuchen; schließlich ging es um die Praxisanpassung im Detail. ■ Eigenständiges Denken ohne Blockierung durch die Fachliteratur Im Zusammenhang mit der Entwicklung des Nurflügel-Flugzeug-Patents schreibt Blunck (1942, S. 79/ 80) zur Arbeitsweise von Junkers: „Er ging nicht von dieser oder einer anderen schon vorhandenen Maschine aus, um mit einigen Verbesserungen möglichst bald zu einer eigenen Konstruktion zu kommen, sondern er suchte wieder … den grundsätzlichen und methodischen Weg. Ein weiteres Merkmal seiner Arbeit zeigte sich hier wie in allen späteren Fällen darin, dass er sich so gut wie gar nicht um die vorhandene Literatur kümmerte - ein für einen deutschen Professor ganz besonders ungewöhnliches Verfahren. Es lag ihm nie, sich in Bücher und Zeitschriften zu vertiefen. Auch die Ausarbeitungen seiner Mitarbeiter konnte er nur selten ganz zu Ende lesen. Schon nach wenigen Seiten überfiel ihn eine solche Fülle von Gedanken, von denen er so erfasst wurde, dass er nicht weiter zu lesen vermochte … Junkers war in einem Ausmaße schöpferisch reich, dass er kaum Zufuhr von Gedankengut von außen her brauchte, es störte ihn eher.“ Das Ergebnis dieser exotisch anmutenden Arbeitsweise spiegelt sich in Junkers’ Patenten wider. Nur selten wird darin Bezug auf die konventionelle Technik genommen, eben weil Junkers völlig außerhalb des konventionellen Rahmens arbeitete. Wenn der Stand der Technik überhaupt behandelt wird, dann nur kurz und ohne jede Quellenangabe. In den vier oben näher analysierten Junkers-Patenten wird nicht ein einziges Konkurrenzpatent zitiert. Dies mag ungewöhnlich scheinen, ist aber „patentjuristisch“ durch‐ aus in Ordnung: Zitiert werden müssen ältere Schutzrechte nur, wenn die Neuanmeldung im direkten Bezug zu ihnen steht. Wird etwas völlig Neues beschrieben, so genügen kurze, allgemeine Angaben zur konventionellen Technik samt ihren Mängeln. Nun sollten wir aus dem, was Blunck über Junkers’ Verhältnis zur Fachli‐ teratur schreibt, keine voreiligen Schlüsse ziehen. Fachliteratur ist wichtig - 290 6 Methodische und experimentelle Studien <?page no="291"?> wer wollte das bezweifeln. Schließlich arbeiten wir nicht im luftleeren Raum. Aber es kommt auf die Reihenfolge an. Zunächst einmal sollten wir ohne nähere Literaturkenntnis das Problem gemäß TRIZ vorurteilslos analysieren und die eigentliche Aufgabe definieren. Erst dann, nachdem wir den physikalischen Kern des zu lösenden Pro‐ blems verstanden haben, sollten wir uns intensiv mit der Fachliteratur befassen. Wer hingegen ganz zu Anfang sämtliche Fachliteratur zur Sache liest, blockiert sich oft derart, dass er nur noch nach winzigen Patentlücken im bereits beschriebenen Stand der Technik sucht. ■ Systematischer Einsatz „fachfremder Fachleute“ Wir haben dazu weiter oben bereits die Geschichte der Entstehung des ersten Ganzmetall-Eindeckers der Welt kennengelernt. Junkers stellte, als er dieses für ihn völlig neue Gebiet betrat, nicht etwa Flugzeug-Konstrukteure ein, sondern realisierte das Flugzeug mit seiner auf die Verarbeitung dünner Bleche spezialisierten Gasbadeofen-Mannschaft. Diese beherrschte Techni‐ ken, die in anderen Branchen (so bei der Flugzeugbauer-Konkurrenz) wenig geschätzt, eher sogar verlacht wurden. Genau diese Techniken sicherten Junkers’ Erfolg. ■ Durchgehende Betreuung eines neuen Systems bis zur erfolgten Ein‐ führung in die industrielle Praxis Junkers hat stets die Überführung seiner Ideen in die Praxis angestrebt. Dabei hatte er, wir haben es am Beispiel des Gasbadeofens kennengelernt, keineswegs vor, die Fertigung selbst zu übernehmen. Ihm blieb aber, weil die infrage kommenden Lizenznehmer nicht an seine kühnen Ideen glaubten, nichts anders übrig. So wurde er, fast wider Willen, zum ebenso bewunder‐ ten, wie beneideten - und angefeindeten - Unternehmer. Er legte stets Wert darauf, dass die Überführung in die Praxis jeweils in einer Hand blieb, und dass die Betreuung auch nach erfolgter Überführung noch eine gewisse Zeit fortgesetzt wurde. So lässt sich vermeiden, dass die unvermeidlichen Kinderkrankheiten und Schwächen eines neuen Systems von den Produktionsleuten später allein ausgebügelt werden müssen. Schließlich versteht der Erfinder zunächst am meisten von seinem neuen System. Junkers selbst vertraute in diesem Punkt allerdings völlig seinen verantwortlichen Mitarbeitern, denn er selbst neigte 291 6.1 Wie arbeitete der große Erfinder Hugo Junkers? <?page no="292"?> dazu, sich sofort ganz neuen Aufgaben zuzuwenden, wenn das Prinzipielle des zur Überführung vorgesehenen Systems klar war. Allerdings stieg er sofort wieder mit ein, wenn im Verlaufe der Einführung unerwartete Schwierigkeiten auftraten. Hugo Junkers ist für uns auch heute noch ein Vorbild. Aus Sicht des Methodikers fasziniert, dass sich die von Altschuller seit den frühen 50er Jahren des vorigen Jahrhunderts entwickelte Methode TRIZ in der Arbeit besonders erfolgreicher Erfinder gleichsam vorausahnen, z. T. sogar als - überwiegend intuitiv - bereits praktiziertes Element der erst später geschaffenen Methode nachweisen lässt. In diesem besonderen Sinne ge‐ hört Hugo Junkers, dessen exzentrische Arbeitsweise bei oberflächlicher Betrachtung eher das Gegenteil vermuten lässt, zweifellos zu den Pionieren des Systematischen Erfindens. 6.2 Erfindungspraktiker entdecken und nutzen TRIZ-analoge Prinzipien: H. M. Hinkel und G. Elsner Die Autoren eines im hier behandelten Zusammenhang bemerkenswerten Buches (Hinkel u. Elsner 2013) sind nicht nur erfolgreiche Erfinder, sondern sie verstehen es auch, ihr erfinderisches Vorgehen in klarer, eingängiger Sprache zu vermitteln. Diese Fähigkeit ist ausgesprochen selten. Typischer‐ weise neigen die meisten Erfinder nicht zur Reflexion ihrer Tätigkeit, auch interessieren sie sich nur selten für erfindungsmethodische Fragen. Ande‐ rerseits gibt es Erfindungsmethodiker, die nicht mit eigenen Erfindungen aufwarten können, und deren Publikationen es deshalb an überzeugenden Praxisbeispielen mangelt. H. M. Hinkel und G. Elsner, beide promovierte Physiker, haben als wissen‐ schaftliche Mitarbeiter bei IBM gemeinsam mehr als hundert Erfindungen erarbeitet. Nun ist das Gebiet der Computertechnologie für Nichtspezialis‐ ten kompliziert und in hohem Maße anspruchsvoll. Umso verdienstvoller ist es, dass die Autoren ihre zahlreichen Praxisbeispiele in einer Sprache erläu‐ tert haben, die auch für den Nicht-Physiker das Prinzipielle, Übertragbare, in völlig anderen Gebieten Nutzbare erkennen lässt. Aus Methodikersicht ist zudem ein Aspekt besonders bemerkenswert: Die Autoren sind in ihrem Kapitel „Die Prinzipien zur Entfesselung der Kreativität“ zu methodischen Empfehlungen gelangt, die erstaunliche Ähnlichkeiten zu den Empfehlun‐ gen des Schöpfers der TRIZ, G. S. Altschuller, aufweisen. Hinkel und Elsner 292 6 Methodische und experimentelle Studien <?page no="293"?> (2013, S. 125) schreiben dazu: „Wir selbst haben TRIZ weder genutzt noch gekannt. Wir haben unsere Prinzipien selbst spontan entdeckt und angewandt, anfangs fast unbewusst, dann bewusst und schließlich systematisch“. In Kenntnis der Theorie zum Lösen erfinderischer Aufgaben (siehe dazu: Kap. 3.1.2, 3.2.6, 3.3.2, 3.4) kommt der Leser des Buches von Elsner und Hinkel zu dem Schluss, dass obiges Statement der Autoren gewiss zutrifft. Der Sachverhalt ist nicht zuletzt auch methodisch interessant. Das Werk „Erfinden ist genial“ kann in diesem Sinne als eine hoch aktuelle, mit High‐ tech-Beispielen abgesicherte, experimentell gewonnene Bestätigung der Altschullerschen Erfindungsmethodik gesehen werden: Besonders befähigte Erfinder kommen früher oder später zu der Erkenntnis, dass Erfinden eben nicht nur „aus dem Bauch“ heraus funktioniert, sondern viel mit prinzipi‐ ell wiederholbarem Vorgehen, analogisierender Arbeitsweise - und nicht zuletzt Logik, auch wenn dies in der Patentschrift besser nicht zugegeben werden sollte - zu tun hat. So ist erklärlich, dass die von Hinkel und Elsner gefundenen Prinzipien in erstaunlichem Maße den Altschuller-Prinzipien ähneln. Jedem, der sein erfinderisches Potenzial besser als bisher nutzen möchte, ist dieses Buch zu empfehlen. Dies gilt für Interessenten aller Fachsparten. Wer bisher geglaubt hat, sein eigenes Problem sei „völlig einmalig“ oder „methodisch sowieso nicht zugänglich“, sollte sich unbefangen der Lektüre dieses Buches widmen. Ich möchte einige der von Elsner und Hinkel angeführten Beispiele unter methodischen Aspekten analysieren. Im Kapitel „Ein Nachteil ist tatsächlich oft ein Vorteil“ - sprachlich fast deckungsgleich mit Altschullers Prinzip „Umwandeln des Schädlichen in Nützliches“ - lesen wir: „Wenn ich einen neuen Klebstoff mit bestimmten Eigenschaften entwickeln möchte, es aber nicht klappt, habe ich vielleicht ein neues Trennmittel, also das Gegenteil, gefunden? Wenn ich mich bei der Abfassung meines Textes auf meinem PC dauernd vertippe, was ärgerlich ist, lässt sich daraus vielleicht ein Text-Verschlüsselungssystem ma‐ chen? ? Das Gleiche gilt, wenn die Tinte meines Druckers schneller als gewünscht ausbleicht. Wenn ich über eine kaum sichtbare heimtückische Ministufe stolpere, ist dies vielleicht eine Möglichkeit, einen Einbrecher zu Fall zu bringen oder wenigstens auf ihn aufmerksam zu machen? “ (Hinkel u. Elsner 2013, S. 34) 293 6.2 Erfindungspraktiker entdecken und nutzen TRIZ-analoge Prinzipien: Hinkel/ Elsner <?page no="294"?> Die ersten beiden Beispiele entsprechen sichtlich zugleich dem Umkehrprinzip, was ein weiterer Beleg dafür ist, dass oft genug mehrere Prinzipien wirken. Das letztgenannte Beispiel beschreibt eine für den erfolgreichen Erfinder besonders typische Denkweise: „Das ist verdammt ärgerlich. Aber gerade deshalb: Wie kann ich es anstellen, dass mir am Ende doch noch etwas Verwertbares dazu einfällt? “ Erforderlich ist unbedingt, sich von der ursprünglichen Situation („Ich bin gestolpert“) gedanklich zu lösen und zu der Frage überzugehen: „Wer sollte stolpern, damit die Sache einen Sinn bekommt“? An sich bekannt ist das Dotieren von Silicium-Wafern: Die Fremdstoffe (As, P, B) werden in Form ihrer Ionen mit hoher Energie in den Silicium-Kristall eingeschossen. Nachteilig ist nur, dass die Ionen dabei den Kristall so stark schädigen, dass er anschließend durch Erhitzen ausgeheilt werden muss. Dieser Nachteil lässt sich für bestimmte Zwecke jedoch in einen Vorteil verwandeln, „z. B. in der Silicon on Insulator (SOI)-Technologie, die schnellere Transistoren mit geringerer Verlustleistung ermöglichen. Hier wird die Kristallschädigung, die durch Wasserstoffionen-Implantation entsteht, genutzt, um die Siliciumscheibe anschließend in zwei Hälften zu zerlegen“ (Hinkel u. Elsner 2013, S. 35). 6.3 Eigene Experimente zu Altschullers Operator „A-Z-K“ Den AZK-Operator haben wir im Kapitel 3.1.2 im Zusammenhang mit dem ARIZ 68 bereits kennengelernt. Der methodisch-prinzipielle Ansatz soll hier nun experimentell belegt werden. Altschuller hatte den Operator eingeführt, um in einer frühen Phase der Problembearbeitung unser Gesichtsfeld so zu erweitern, dass auch extreme Gebiete beim weiteren Vorgehen nicht übersehen werden können. Zu diesem Zwecke stellen wir uns das betrachtete System gedanklich als unendlich klein bzw. unendlich groß (Abmessungen), den Prozess als unend‐ lich schnell bzw. unendlich langsam (Zeit), und die Kosten als verschwindend gering bzw. beliebig hoch vor. Wird die AZK-Stufe übersprungen, so besteht die Gefahr, dass wir unser Denken zu frühzeitig „kanalisieren“. Der Operator dient in diesem Sinne auch dem abermaligen Hinterfragen der - in dieser Bearbeitungsstufe schon recht genau beschriebenen - Aufgabenstellung. Wenn wir die gedanklich durchgespielten Extremfälle analysieren, kön‐ nen wir günstigen Falles Anregungen zur weiteren Bearbeitung der bisher definierten, vom Stand der Technik ausgehenden Aufgabe gewinnen. Diese 294 6 Methodische und experimentelle Studien <?page no="295"?> Anregungen sorgen dann dafür, dass wir zwar weiterhin fokussiert arbeiten, jedoch Extremfälle - die durchaus praxisrelevant sein können - nicht mehr unberücksichtigt lassen. Weit häufiger führt uns die Betrachtung der Extremfälle jedoch zu völlig neuen Aufgabenstellungen, die praktisch nichts mehr mit einer - wenn auch erfinderischen - Verbesserung des etablierten Standes der Technik zu tun haben. Vielmehr bewegen wir uns nunmehr völlig außerhalb des ursprünglichen Suchfeldes. Wir erkennen hier eine methodisch interessante Nähe zu den oben bereits erläuterten, für die Gewinnung sehr ungewöhn‐ licher Ideen von Dirlewanger (2016) systematisch genutzten außerirdischen Extrembedingungen. Nunmehr ist zu entscheiden, ob wir die völlig neue Aufgabenstellung anstelle der bisher definierten Aufgabenstellung bearbeiten. Noch besser wäre, beide Aufgabenstellungen parallel zueinander in Angriff zu nehmen, und die Ergebnisse dann zu vergleichen. Methodisch Interessierte werden in dieser Bearbeitungsstufe ihre Ent‐ scheidung nicht nur von finanziellen Gesichtspunkten abhängig machen, zumal sich die Kombination „völlig kostenlos, benötigt aber ziemlich viel Zeit“ ganz nebenbei - fast ohne Aufwand - durchprüfen lässt. Folgendes Beispiel soll zeigen, was gemeint ist. Nehmen wir an, unsere Auf‐ gabe laute, ein neues Kopierverfahren zu entwickeln. Nun ist die Kopiertechnik ein bereits stark „abgegrastes“ Gebiet. Zudem steht bei uns ein Kopierer auf dem Schreibtisch, oder unser Drucker kann die Funktion ohnehin mit überneh‐ men. Hinzukommt, dass die Geschichte der Kopiertechnik funktionierende Lösungen in Hülle und Fülle bietet. Beispielsweise bestimmten Fotokopien, basierend auf dem klassischen Silberhalogenidverfahren, lange Zeit den Stand der Technik. Zudem waren Blau- und Braunpausen in den Konstruktions- und Architektur-Büros jahrzehntelang allgemein üblich. Bereits in der berühmten Monografie von Eder und Trumm (1929) werden sehr viele Nicht-Silberhaloge‐ nid-Kopierverfahren ausführlich beschrieben. Einige Kapitelüberschriften aus dieser Monografie seien stellvertretend genannt: „Übersicht verschiedener photographischer Kopiermethoden mittels lichtempfindli‐ cher Eisenverbindungen. Wirkung des Sonnenspektrums auf Eisen- und Uransalze. Lichtpausen mittels Zyanotypie (weiße Linien auf blauem Grunde). Lichtpausen mittels Pelletschen Gummi-Eisen-Verfahrens (Blaue Linien auf weißem Grunde). 295 6.3 Eigene Experimente zu Altschullers Operator „A-Z-K“ <?page no="296"?> Fotoldruck-Zyanotyp-Gelatinedruck oder Lichtpausdruck. Lichtpausen mittels des Tintenkopierprozesses auf lichtempfindlichen Eisensalzen (Schwarze Linien auf weißem Grunde). Photographische Kopierverfahren mit Uranverbindungen. Kopierverfahren mittels Kupfersalzen. Kopierverfahren mittels Kobaltsalzen. Kopierverfahren mittels Quecksilbersalzen. Lichtpausverfahren mit Chromaten. Kopierverfahren mit Molybdän- und Wolframsalzen. Diazotyp-Prozesse - schwarze Diazotypie“. Wir sehen also, dass unsere Aufgabe eine sehr spezielle Herangehensweise erfordert. Es dürfte wenig sinnvoll sein, nach weiteren lichtempfindlichen Nicht-Silberhalogenidverbindungen zu suchen, zumal das Periodensystem in dieser Hinsicht bereits weitgehend „abgeklappert“ zu sein scheint. Auch sind so gut wie alle der von Eder und Trumm (1929) beschriebenen Kopier‐ verfahren ohnehin nur noch von historischem Interesse. Es bleiben also die moderneren Kopierverfahren (Xerografie, Laserkopierer, Farbkopierer, Digitalkopierer). Nun ist auf dieser Welt kaum ein Verfahren völlig ausgereift. Bei „jungen“ Verfahren sind oft genug entscheidende Verbesserungen, sogar solche auf erfinderischem Niveau, erforderlich. Bei älteren Verfahren hingegen sind meist noch immer kleinere Optimierungsschritte möglich. Hier interessieren wir uns aber für ein rein denkmethodisches Beispiel. Betrachten wir deshalb die modernen Verfahren ausnahmsweise einmal als ausgereift, so muss unsere Ideensuche in Gebieten erfolgen, die technisch weder mit den beschriebenen „klassischen“ Verfahren noch mit den hoch entwickelten modernen Kopierverfahren irgendetwas zu tun haben. Denk‐ methodisch, in seltenen Glücksfällen auch beim Auffinden schutzrechtlich interessanter Lösungen, kann uns hier - und in analogen Situationen - der AZK-Operator weiterhelfen. Formulieren wir also: „Ich möchte ein Kopierverfahren entwickeln, das völlig kostenlos arbeitet. Akzeptiert wird, dass die Kopie weder in kurzer Zeit fertig, noch perfekt im Sinne heutiger Standards sein muss“. Wir haben somit die Kopplung der AZK-Grenzfälle „Das Verfahren soll kostenlos arbeiten“ mit „Zeit spielt keine Rolle“ vor uns, flankiert vom erfinderischen Altschuller-Prinzip „Unvollständige Lösung“. 296 6 Methodische und experimentelle Studien <?page no="297"?> Da die Kostenlosigkeit unser primäres Anliegen sein soll, kommen als Ko‐ piermaterialien z. B. Abfallstoffe infrage, die von sich aus lichtempfindlich sind. Wie per Aufgabenstellung formuliert, sind wir hinsichtlich Arbeitsge‐ schwindigkeit und Qualität der Kopien ausnahmsweise zu Kompromissen bereit (Kostenlosigkeit hat ihren Preis). Überlegen wir nun, welche Stoffe, die als Abfallstoffe gelten können, ohne jede Behandlung lichtempfindlich sind. Da die Verfärbung als Folge der Lichteinwirkung nicht schnell verlaufen und der Prozess nicht perfekt sein muss, fällt uns z. B. ein, dass sich neue, zunächst sehr helle Holzverklei‐ dungen allmählich bräunlich bis braun verfärben. Dies ist nicht nur bei Außenverkleidungen der Fall, sondern auch in Innenräumen zu beobachten, falls genügend - und genügend lange - Sonnenlicht auf die Verkleidung fällt. Wir besorgen uns also Abfallholz (Verschnitt, der ohnehin verbrannt werden soll), und experimentieren. Da für Verkleidungen oft auch Sperrholz genommen wird, führen wir unser Experiment mit einem Stückchen hellen Abfall-Sperrholzes durch. Auf das Sperrholz wird ein altes Silberhalogenid-Schwarz-Weiß-Negativ gelegt und mit einer Glasscheibe beschwert. Das Ganze wird bei sonnigem Wetter auf die Fensterbank eines Süd-Fensters gelegt. Nach 30 d ist das Experiment beendet. Wir erkennen eine gut sichtbare Kopie (Abb. 55). Das Negativ hat erwartungsgemäß ein Positiv geliefert: Die dunklen Partien des Negativs werden weniger intensiv durchstrahlt als die hellen Partien, die Negativ-Abstufungen der Grautöne führen zu den komplementären Positiv-Abstufungen. Das Ergebnis ist akzeptabel, wenn man die oben definierten Kriterien zugrunde legt: Kostenloses Verfahren, Zeit spielt keine Rolle, Verzicht auf Perfektion im Sinne einer herkömmlichen Fotografie. Technisch-kommerziell ist das Ergebnis uninteressant. Anders sieht es aus, wenn wir die Sache unter denkmethodischen Aspekten beurteilen. Zunächst einmal finden wir bestätigt, dass keine noch so ärmliche Arbeits‐ umgebung uns davon abhalten kann, kreative Lösungen zu entwickeln. Hinzu kommt, dass das Ergebnis (Abb. 55) sogar zwei ziemlich verblüffende Überraschungseffekte bietet. 297 6.3 Eigene Experimente zu Altschullers Operator „A-Z-K“ <?page no="298"?> Abb. 55 Positivkopie von einem gewöhnlichen Schwarz-Weiß-Silberhalogenid- Negativ auf unbehandeltem Sperrholz. Expositionszeit: 30 d. Funktionsprinzip: Graduell abgestuftes Vergilben / Bräunen einer zunächst fast weißen Holzoberfläche durch Bestrahlen mit Sonnenlicht Verkantet man das Sperrholz-Bild bzw. blickt nicht mehr senkrecht darauf, sondern in flachem Winkel, so erscheint die Abbildung fast plastisch, wie bei einem Hologramm. Ich vermute, dass dies mit der faserigen Holzstruk‐ tur zusammenhängt. Jedenfalls spielt das lebende (bzw. ehemals lebende) Substrat in irgendeiner Weise eine Rolle. Es ist denkbar, dass die - physikalisch gesehen - geradezu rabiat intensive Belichtung nicht nur rein oberflächlich, sondern (mindestens im Mikrome‐ terbereich) sogar in die Tiefe gewirkt hat. Da die Holzfasern strangförmig strukturiert und in Faserrichtung parallel zueinander angeordnet sind, ließe sich der beschriebene Effekt unter Berücksichtigung dieser Umstände möglicherweise erklären. Der zweite überraschende Effekt hängt, wie der erste, mit dem ehemals lebenden Substrat zusammen, auf dem die Kopie angefertigt wurde. Haucht man das Sperrholz an, so wird die Abbildung deutlicher und kontrastreicher. Der Effekt verstärkt sich, wenn wir das Bild über heißem Wasserdampf „entwickeln“. Auch hierbei dürfte die Faserstruktur eine Rolle spielen: Beim Aufquellen der Fasern im Wasserdampf wird das Bild verstärkt, mit dem Austrocknen des Sperrholzes verschwindet das Phänomen. 298 6 Methodische und experimentelle Studien <?page no="299"?> Leider lassen sich beide Effekte aus oben beschriebenen Gründen nicht an der Reproduktion (Abb. 55), sondern nur am Original beobachten. Wir sehen, dass ein mithilfe des AZK-Operators gewonnenes, technisch uninteressantes Ergebnis unsere Sicht auf unkonventionelle Kopierverfah‐ ren bereichert und unsere Kenntnisse erweitert hat. Nun könnte ein Kritiker einwenden, auch Sperrholz-Verschnitt habe noch einen gewissen Wert. Deshalb sei die Bedingung, das Verfahren solle kosten‐ los arbeiten, nicht erfüllt. Überlegen wir also, was noch weniger wert ist als Holzverschnitt. Falls wir gedanklich im neu erprobten System bleiben wollen, fällt uns spontan Zeitungspapier ein. Es wird gewöhnlich aus Holzschliff hergestellt und vergilbt, wie bekannt, mit der Zeit. Dass dies bevorzugt unter Licht- und Sauerstoffeinwirkung geschieht, wissen wir ebenfalls, denn zwischen Buchseiten aufbewahrte Zeitungsausschnitte vergilben auch nach Jahrzehnten nur wenig. Es ist also naheliegend, unser Experiment zu wiederholen, und anstelle von Sperrholz einen Zeitungsrand zu verwenden. Die Anordnung ist die gleiche, wie bereits beschrieben: Zeitungsrand, darauf das gleiche Negativ wie für Abb. 55 verwendet, dann die Glasplatte zum Beschweren, und schließlich die Positionierung am sonnigen Südfenster. Abb. 56 zeigt das Ergebnis. Es entspricht weitgehend der Abb. 55, zeigt aber einige Besonderheiten. Der verstärkend wirkende Anhauch-Effekt ist weniger ausgeprägt als beim Sperrholz-Bild, und der Effekt, das Bild in schräger Aufsicht räumlich erscheinen zu lassen, fast nicht auszumachen. Dies dürfte damit zusammenhängen, dass Holzschliff-Papier aus zerteilten, ungeordneten Fasern besteht, Sperrholz-Furnier hingegen parallel angeord‐ nete, unbeschädigte, längere Fasern aufweist. 299 6.3 Eigene Experimente zu Altschullers Operator „A-Z-K“ <?page no="300"?> Abb. 56 Kopie des gleichen Negativs wie in Abb. 55 auf einem Zeitungsrand Expositionszeit: 20 d (Sonnenlicht). Zeitungspapier wird aus Holzschliff hergestellt; das Funktionsprinzip entspricht dem der Abb. 55 Gewiss wird nun ein Öko-Ultra des Weges kommen und uns kritisch darauf hinweisen, alte Zeitungen seien schließlich ein wertvoller Sekundärrohstoff; von Kostenlosigkeit könne also keine Rede sein. Ehe wir uns über diese Spitzfindigkeit ärgern, überlegen wir, ob sich nicht doch noch eine bessere Annäherung an das Ideal erreichen lässt. Versuchen wir es also: Chlorophyll, der grüne Blattfarbstoff, ist im aktiven „Normalbetrieb“, d. h. in den Blättern an Bäumen und Sträuchern, für die Fotosynthese zuständig. Sie sorgt dafür, dass komplexe organische aus einfachen anorganischen Stoffen entstehen, gewährleistet so das Leben der Pflanzen und damit auch der Tiere. Im Herbst verfärben sich die Blätter, ehe sie abfallen. Dies liegt am Abbau des Chlorophylls. Die in den Blättern ebenfalls vorhandenen - jedoch bisher vom Grün optisch überdeckten - gelben, roten und violetten Farbträger werden nunmehr sichtbar. Damit wollen wir uns nicht näher befassen. Betrachten wir aber den Fall, dass einige Blätter mitten in der Vegetationsperiode ihre gewöhnliche Funktion in der Fotosynthese einstellen müssen. Dies kann beispielsweise 300 6 Methodische und experimentelle Studien <?page no="301"?> geschehen, wenn die Blätter bei einem Sturm abgerissen, oder beim Som‐ merschnitt mit den Ästen zusammen entfernt werden. Solche Blätter werden trocken, wobei sie entweder ihre grüne Farbe behalten, sich gelb-bräunlich verfärben, oder ausbleichen. Was jeweils geschieht, hängt von der betrachteten Art und / oder von den herrschenden Wetterbedingungen (Luftfeuchte, Intensität und Dauer der Einwirkung des Sonnenlichtes) ab. Auf jeden Fall lässt sich vermuten, dass insbesondere das Ausbleichen durch Einwirkung des Sonnenlichtes verursacht bzw. erheblich beschleunigt wird. Ein indirektes Indiz für die Rolle des Sonnenlichtes ist die Beobachtung, dass zwischen Buchseiten gepresste und dort aufbewahrte grüne Blätter auch nach Jahrzehnten noch nicht völlig verblichen sind. Gehen wir also davon aus, dass ein frisch gepflücktes Blatt lichtempfindlich ist. Der zugrunde liegende Mechanismus soll uns hier nicht näher interessieren, jedoch ist klar, dass diese Art von Lichtempfindlichkeit nichts mit der Lichtaktivität des Chlorophylls während der Fotosynthese zu tun haben kann. Wenn aber ein frisch gepflücktes grünes Blatt in irgendeiner Weise dennoch lichtempfindlich ist, so liegt die Vermutung nahe, dass sich auf diesem Blatt Kopien anfertigen lassen müssten. Die experimentelle Anordnung ähnelt sehr derjenigen, die wir im Zusam‐ menhang mit den Abb. 55 und 56 bereits kennengelernt hatten. Zusätzlich erforderlich sind nur eine dünne transparente Schutzfolie zwischen dem Negativ und dem frischen Blatt sowie ein saugfähiges Papier auf der Rückseite des Blattes. Die Folie schützt die Schicht auf dem Negativ vor dem Verkleben mit dem Blatt, das rückseitige Papier nimmt das Schwitzwasser auf. Wir müssen bedenken, dass unsere Versuchsmaterial (das gilt auch für die Kopien auf Holz) im Südfenster bis zu 50 °C heiß werden kann, und dass im Falle der frischen Blätter unter diesen Umständen störende Mengen Wassers abgegeben werden. Das Ergebnis unseres ersten Versuches dieser Art ist in Abb. 57 zu se‐ hen. Wenn wir als Funktionsprinzip das Ausbleichen des Chlorophylls im Sonnenlicht annehmen, so wäre zu erwarten, dass die am stärksten durchstrahlten Partien des Negativs das stärkste Ausbleichen auf dem Blatt bedingen müssten. Dies erwies sich als zutreffend: Das eingesetzte Negativ hat - als Kopie - ein weiteres Negativ geliefert. 301 6.3 Eigene Experimente zu Altschullers Operator „A-Z-K“ <?page no="302"?> Abb. 57 Kopie auf einem Blatt des Süßkirschbaumes. Gleiches Negativ wie für Abb. 55 und 56 Expositionszeit: 20 d. Funktionsprinzip: Abgestuftes Ausbleichen der unterschiedlich stark vom Sonnenlicht getrof‐ fenen Partien. So wird das Negativ als Negativ originalgetreu wiedergegeben. Nicht jede Art von Blättern kommt für die Experimente infrage. Ich fand, dass die Blätter des Süßkirschbaumes sowie des wilden Weines geeignet sind. Ungeeignet hingegen sind beispielsweise Efeu-Blätter. Sie zeigen kaum Spuren des in Abb. 57 dargestellten Effektes, sondern verfärben sich fast gleichmäßig gelb-braun, so gut wie unabhängig von der Intensität des einwirkenden Sonnenlichtes. Wenn wir nun im Direktverfahren eine positive Kopie erzeugen wollen, müssten wir - nach den gewonnenen Erfahrungen (Abb. 57) - als Original ein Positiv nehmen. Gängige Positive sind aber auf Fotopapier kopiert. Falls wir also nicht zufällig ein transparentes Dia-Positiv zur Hand haben, müssen wir überlegen, ob uns das Fotopapier unbedingt stört. In Anbetracht der gewählten Lichtquelle, der Sonne, fällt die Antwort leicht: Fotopapier lässt sich so durchaus von der Rückseite her durchstrahlen, zumal wir uns ja darauf verständigt hatten, dass es etwas länger dauern darf. Auch bei diesem Versuch haben wir es mit Schwitzwasser zu tun. Die An‐ ordnung sollte deshalb wie im Falle der Abb. 57 gewählt werden: saugfähiges Papier, darauf ein Blatt des Süßkirschbaumes, sodann eine transparente Folie, darauf - mit der Schichtseite nach unten - das Papier-Positiv, wel‐ ches kopiert werden soll, und schließlich eine passende Glasscheibe zum Beschweren des Ganzen. 302 6 Methodische und experimentelle Studien <?page no="303"?> Abb. 58 (a, b) zeigt die innerhalb von 25 bis 37 d gewonnenen Ergebnisse. Auch hier können wir - das zeigt sogar die Reproduktion - beinahe ein wenig „in die Tiefe“ schauen, d. h., die Kopie erscheint fast dreidimensional. Auffällig ist dies besonders bei der Abb. 58 a. Wichtig ist die Belichtungszeit. Abb. 58 a zeigt, dass der Kontrast noch zu wünschen lässt. Fast originalgetreu fallen die Kopien dagegen bei längerer Belichtungszeit aus (Abb. 58 b: 37 d). An der Kostenlosigkeit des Verfahrens kann nun nicht mehr herumgekrittelt werden. Selbstverständlich erhebt das Ergebnis keinen Anspruch auf technische Nützlichkeit. Aber sein denkmethodischer Wert steht wohl außer Zweifel. Abb. 58 Direkte Positivkopien von einer Papier-Positivvorlage Das Positiv wurde jeweils mit der Schichtseite auf das mit einer dünnen transparenten Folie abgedeckte Süßkirschbaumblatt gelegt; deshalb sind die Kopien fast scharf. Die Durchstrahlung des Foto-Trägerpapiers mit Sonnenlicht erfolgte von der Rückseite aus. Abb. 58 a (links): 25 d Belichtung. Abb. 58 b (rechts): 37 d Belichtung. Funktionsprinzip: s. Abb. 57 (dort: aus dem Negativ wird ein Negativ; hier: aus dem Positiv wird ein Positiv) Da der Aufwand bisher fast bei Null lag, habe ich ergänzend noch einige Versuche gemacht, den aktiven Stoff - das Chlorophyll - abzutrennen und sein Verhalten isoliert zu testen. Zu diesem Zweck wurden Blätter der Großen Brennnessel, die besonders viel Chlorophyll enthalten, zerkleinert. Das Chlorophyll wurde sodann mit einer wässrig-alkoholischen Lösung („Nordhäuser Doppelkorn“) extrahiert, die Rückstände abfiltriert. Dann 303 6.3 Eigene Experimente zu Altschullers Operator „A-Z-K“ <?page no="304"?> wurde saugfähiges Papier mit dem tiefgrünen Filtrat getränkt. Es zeigte sich, dass das Papier nach einmaligem Tränken und nachfolgendem Trocknen sich nur schwach verfärbt hatte. Der Vorgang wurde deshalb wiederholt, bis das Papier dunkelgrün verfärbt war. Nun wurde untersucht, ob sich das so präparierte Papier zum Kopieren eignet. Es erwies sich nach lang andauernder Bestrahlung mit Sonnenlicht als kaum lichtempfindlich, als fast inaktiv. Vielleicht wurde das Chlorophyll durch das Extraktionsmittel desaktiviert. Anscheinend ist der auf den Abb. 57 und 58 dargestellte Effekt nur bei ungestörter Struktur des originalen Blattes zu erzielen. Die von der Natur gelieferte Lösung, das Blatt, ist somit die bereits beste Lösung (! ). Diese Annahme wird bestärkt durch die Beobachtung, dass bestimmte Blätter sogar zum „Durchkopieren“ geeignet sind. Abb. 59 demonstriert dies an einem Birkenblatt, das nach fünfmonatiger Belichtung beidseitig ein gut sichtbares Bild zeigt. Da Birkenblätter dünn und zart sind, kann angenom‐ men werden, dass dies die Ursache für den eindrucksvollen Durchkopier- Effekt ist. Im Falle stärkerer, derberer Blätter - siehe beispielsweise Abb. 58 - entstehen dagegen nur einseitig sichtbare Bilder. Falls länger belichtet wird, verlieren diese vorderseitigen Bilder an Kontrast und bleichen schließlich insgesamt aus, ehe der beim Birkenblatt so eindrucksvolle „Durchkopier- Effekt“ eintreten kann. Solche Kopien sind nicht ewig haltbar. Gerahmt an die Wand gehängt, bleichen sie allmählich aus. Im Album aufbewahrt, bleiben sie jedoch über lange Zeit fast unverändert und können immer wieder betrachtet werden. Mit Fixiermöglichkeiten habe ich mich nicht befasst. Die Suche nach einer Fixiermethode müsste wohl unbedingt unter Berücksichtigung der sehr speziellen Eigenschaften des Chlorophylls erfolgen. Fassen wir zusammen, was wir aus den besprochenen Beispielen zum Operator „Abmessungen, Zeit, Kosten“ lernen können: Die Aufgabe erscheint unter Berücksichtigung extremer Grenzfälle in völlig neuem Lichte. Ohne den Einsatz des AZK-Operators wären wir wohl kaum auf diese vergleichsweise exotischen Varianten verfallen. 304 6 Methodische und experimentelle Studien <?page no="305"?> Abb. 59 Direkte Positivkopie von einer Papier-Positivvorlage Birkenblatt, Belichtung vom 17. 09. 2017 bis zum 17. 02. 2018 Links: Vorderseite; Rechts: Rückseite desselben Blattes mit „durchkopiertem“ Bild Wir sollten zwar nicht erwarten, dass bei unserem Vorgehen technischkommerziell nützliche Lösungen entstehen, aber den denkmethodischen Nutzen zu schätzen wissen. Zudem lassen sich bei geschickter Auswahl der Kombinationsmöglichkeiten die nötigen Experimente fast ohne Aufwand - ganz nebenbei - durchführen („Von Selbst“). In Sonderfällen, weitab von unseren gewohnten Lebensumständen, kann der AZK-Operator sogar unmittelbar hilfreich sein. Nehmen wir folgenden Fall an, auch wenn er in unserem zivilisierten Umfeld derzeit (noch) undenk‐ bar sein mag: Nachts klingeln zwei finster blickende Herren an unserer Tür und holen uns zu einer längeren Lagerhaft ab. Damit ändert sich für uns schlagartig alles. Selbst wenn die Bedingungen im Lager halbwegs erträglich sein sollten, haben wir doch keinerlei Kontakt zur Außenwelt. Die Zeit wird uns unerträglich lang. Wir sind dann froh, irgendwann wenigstens ein Lebenszeichen mithilfe der oben beschriebenen Kopiertechniken geben zu können. Ein Papier, über den Lagerzaun geworfen oder einem Kurier mitgegeben, wird bei scharfen Kontrollen entdeckt. Holzreste bzw. Blätter als Kommunikationsmittel sind jedoch unverdächtig - speziell, wenn die Kopien matt sind: Der Kontrolleur sieht dann besten Falles gar nichts. Der durch die Umstände sensibilisierte Adressat des Kassibers hingegen wird auf diese ungewöhnliche Weise ziemlich sicher informiert. Auch wenn die vom AZK-Operator angeregten Lösungen technisch nicht unmittelbar interessant sein mögen, erweitern sie doch unser Gesichtsfeld 305 6.3 Eigene Experimente zu Altschullers Operator „A-Z-K“ <?page no="306"?> und unser Wissen. Die erworbenen Kenntnisse können sich dann später auf einem ganz anderen Gebiet als nützlich erweisen. Ist das Ergebnis technisch nicht nutzbar, so kann es doch künstlerisch interessant sein. Eine kostenlose Kopie auf Holz, die über Wasserdampf kontrastreicher wird, und die - in einem bestimmten Winkel betrachtet -dreidimensional erscheint, kann sich mit den Werken mancher Konzept‐ künstler wohl messen. Ein Gesicht, das aus einem grünen Blatt hervorlugt, könnte den Betrachter sogar ins Grübeln bringen. Eine Kopie, die nach einem einzigen Arbeitsschritt auf beiden Seiten des Bildträgers sichtbar wird (Abb. 59), ist nicht nur ästhetisch reizvoll, sondern hat in der Technik - vom bekannten Diapositiv einmal abgesehen - meines Wissens noch keine Entsprechung gefunden. Unter methodischen Gesichtspunkten wäre außerdem die Frage zu disku‐ tieren, ob wir es hier nicht eigentlich - weit eher als mit einem „AZK- Beleg“ - mit einem hervorragenden bionischen Beispiel zu tun haben. Gegen diese Einordnung spricht jedoch, dass die Bionik sich definitionsgemäß mit der Übertragbarkeit natürlich vorkommender Bau-, Funktions- und Struktur-Muster in die Technik befasst. Beim bionischen Vorgehen wird mit Analogien gearbeitet; die direkte Nutzung natürlicher Materialien und der Einsatz natürlich ablaufender Prozesse fällt hingegen weit eher in das Gebiet der Biotechnologie. Somit hätten wir es mit einem biotechnologischen Beispiel zu tun, und zwar mit einem besonders ambivalenten. Während der methodische Wert für den Operator „Abmessungen-Zeit-Kosten“ („AZK“) unbestritten ist, taugt das Beispiel im Zusammenhang mit der Biotechnologie eher als Beleg dafür, dass wir nicht krampfhaft alles, was wir in der Natur vorfinden, nur unter einseitigen Nützlichkeitsgesichtspunkten beurteilen sollten. Anders gesagt: Chlorophyll zählt ganz gewiss nicht zu den für Kopierzwecke kommerziell interessanten lichtempfindlichen Substanzen; zugleich ist es jedoch der für das pflanzliche - und damit auch das tierische und menschliche - Leben wichtigste Stoff überhaupt (! ). Chlorophyll ist also ein gutes Beispiel dafür, dass wir stets definieren sollten, was wir technisch beabsichtigen, und welche Anforderungen wir an die beteiligten Systemelemente zu stellen haben. 306 6 Methodische und experimentelle Studien <?page no="307"?> 6.4 Kann es „Künstliche Kreativität“ geben? Auf diesem anspruchsvollen Gebiet haben wohl die meisten Menschen keine Spezialkenntnisse. Versuchen wir uns deshalb im Netz eine grobe Übersicht zu verschaffen. Dabei fällt auf, dass nach erfolgter Eingabe des Begriffes „Künstliche Kreativität“ automatisch fast nur Einträge zum Thema „Künstliche Intelligenz“ („KI“) erscheinen. Zunächst sei klargestellt, dass die Begriffe Intelligenz und Kreativität un‐ terschiedliche Fähigkeiten beschreiben, und deshalb besser nicht synonym gebraucht werden sollten. Ich kenne außerordentlich intelligente, sehr gut ausgebildete Menschen, denen es ganz offensichtlich an Kreativität mangelt. Sie können mit ihrem umfangreichen Wissen nicht viel anfangen, wenn ungewöhnliche Verknüpfungen zwischen den verfügbaren Wissens‐ elementen gefragt sind. Kein Erfinder arbeitet schließlich im luftleeren Raum, sondern er operiert mit den allgemein verfügbaren Bauelementen der Wirklichkeit. Im Gegensatz zum „nur“ intelligenten Menschen ist er in der Lage, hochgradig überraschende Verknüpfungen herzustellen, und zwar auch dann, wenn sein Wissen Lücken aufweist. Somit sollte bereits der Umstand, dass im Internet der entscheidende Unterschied zwischen den Begriffen Intelligenz und Kreativität stillschweigend unterschlagen wird, uns misstrauisch machen. Hinzu kommt die Beobachtung, dass die wenigen Einträge, die sich expressis verbis mit Künstlicher Kreativität befassen, fast nur die Bereiche Design und Bildende Kunst betreffen. Hingegen habe ich nichts wirklich Anspruchsvolles im Zusammenhang mit wissenschaftlichtechnischer oder erfinderischer Kreativität finden können. Nun sind zwar die Fortschritte auf dem Gebiet der Künstlichen Intelligenz („KI“) beeindruckend, jedoch sollten wir im beschriebenen Zusammenhang nicht einfach annehmen, die Entwicklung führe früher oder später automa‐ tisch zur Künstlichen Kreativität im eigentlichen Sinne. Befassen wir uns deshalb zunächst mit den entscheidenden Unterschieden zwischen der Arbeitsweise des menschlichen Gehirns und der eines heuti‐ gen Computers. Entgegen einem verbreiteten Vorurteil ist unser Gehirn nicht etwa ein Supercomputer, sondern es arbeitet nach völlig anderen Prin‐ zipien und hat deshalb spezifische Fähigkeiten (sowie spe-zifische Defizite). Während unser heutiger Computer digital arbeitet, d. h., einen Rechenschritt nach dem anderen macht, und dies sagenhaft schnell, so arbeitet unser Gehirn analog und parallel. Es kann Probleme umfassend beurteilen, mit Querverbindungen und sachfernen Assoziationen - bewusst oder auch 307 6.4 Kann es „Künstliche Kreativität“ geben? <?page no="308"?> unbewusst - arbeiten, nicht nur gemäß „ja“ und „nein“, sondern auch in den Kategorien „vielleicht“ oder „ein bisschen“ denken (dies wird, heute noch recht unvollkommen, mittels fuzzy logic zu simulieren versucht). Auch können die gestellten Ziele während der Bearbeitung eines Themas den Umständen angepasst und modifiziert werden. Der Hauptunterschied dürfte aber - ganz abgesehen von der völlig unterschiedlichen Rechentechnik - darin bestehen, dass der Computer keine Gefühle und Bedürfnisse kennt, und grundsätzlich nicht mit vagen Ahnungen unklarer Provenienz operiert. So ist denn auch das berühmte „Bauchgefühl“ rein menschlich. Bekanntlich arbeitet ein Computer mit Programmen, d. h., er ist in seinen Arbeitsmöglichkeiten auf den Umfang und die inhaltliche Ausrichtung des jeweiligen Programms beschränkt. Auch wenn es sich um ein sehr gutes, umfangreiches - inzwischen sogar selbstlernendes - Programm handelt, kann nicht damit gerechnet werden, dass Assoziationen zu beliebi‐ gen Gebieten des menschlichen Wissens zustande kommen. Selbst wenn das Programm, was eines Tages vielleicht denkbar wäre, das gesamte Weltwissen enthielte, ändert das nichts, da die Art des Umgangs mit diesem Faktenwissen völlig verschieden ist, wenn man den Algorithmus mit dem menschlichen Gehirn vergleicht. In seinem bemerkenswerten Buch „HIRNRISSIG - Die 20,5 größten Neu‐ romythen, und wie unser Gehirn wirklich tickt“ hat Beck (2016) die entschei‐ denden Merkmale unter neurobiologischen Aspekten abgehandelt. Becks Kernaussagen lauten: „… ist klar geworden, wie das Gehirn rechnet. Nämlich nicht mit schritt-weisen Algorithmen, sondern parallel im Netzwerk. Der Unterschied könnte fundamentaler nicht sein: In einem Computer gibt es Hardware (zum Beispiel die Halbleiterbau‐ steine auf einem Chip) und Software (die Computerprogramme). In einem Gehirn ist das anders. Denn … dort sind Hard- und Software dasselbe … Das bedeutet konkret: Im Computer gibt es eine Recheneinheit (einen Prozessor), die die Software, die Daten, bearbeitet. Daten sind elektronisch gespeicherte Zeichen, üblicherweise eine Abfolge von Nullen und Einsen … Damit man diese Ziffern wiederfindet, werden sie an einem bestimmten Ort platziert, sie erhalten eine Adresse. Dafür gibt es auf dem Computer eine Festplatte mit einem begrenzten Speicherplatz … Im Gehirn ist das komplett anders. Hard- und Software sind dasselbe, also gilt das auch für die Daten und deren Adressen“ (Beck 2016, S. 222). Hinzu kommt, so Beck, dass Daten im Computer per se keinerlei Sinn haben - was allerdings nicht verwunderlich ist, da der Computer ohnehin nicht 308 6 Methodische und experimentelle Studien <?page no="309"?> weiß, wer er ist, und was das, was er macht, bedeutet. Auch das ist im Gehirn völlig anders. Wir speichern Daten (z. B. Ziffernfolgen) nur dann ab, wenn wir etwas damit anfangen können. Das ganze Gehirn, d.h. das gesamte Netzwerk, speichert Informationen, indem es die Nervenzellkont‐ akte anpasst. In dieser Weise kann ein Aktivitätsmuster (eine Information) leichter ausgelöst werden. Beck behandelt sodann im Kapitel „Das Gehirn - unbegrenzt und doch endlich? “ die Frage der Speicherkapazität: „Gegenwärtig geht man davon aus, dass es im erwachsenen Gehirn etwa 80 Milliarden Nervenzellen gibt. Jede Nervenzelle ist dabei im Durchschnitt mit 10000 anderen Zellen verbunden. Ergibt 800 Billionen Verknüpfungen. Zur Vereinfachung nehmen wir an, dass eine Verknüpfung entweder „an“ oder „aus“ ist. In diesem Fall gibt es etwa … 10 24 Milliarden Möglichkeiten, wie die Nervenzellen gerade aktiv sein können. Schon das ist unvorstellbar, doch die Zahl der Möglichkeiten, die einzelnen Synapsen zu aktivieren, ist sogar noch größer und liegt bei grob gerundeten 10 hoch 241 Billionen. Hinzu kommt: Die Verknüpfungen im Netzwerk, die Synapsen, sind nicht einfach an oder aus, sondern können unterschiedlich stark aktiv sein oder sich sogar gegenseitig beeinflussen …“ (Beck 2016, 223/ 224). Schließlich geht Beck auf den entscheidenden Unterschied der Art der Speicherung von Informationen im Gehirn und im Computer ein: „Eine Information im Gehirn ist auch anders definiert als im Computer. Wie wollen Sie die Erinnerung an Ihre Mutter, ihr Bild, ihre Stimme, ihren Duft, die Gefühle, die sie bei Ihnen hervorruft, in Bits und Bytes fassen? Womit Sie es können, sind die Muster … Diese Muster werden mit analogen Signalen, den Botenstoffen, beliebig moduliert“ (Beck 2016, S. 226). Bereits diese Zitate dürften genügen, um den in reißerischen Artikeln zum Thema erweckten Eindruck entscheidend zu relativieren. In derartigen Artikeln wird - mindestens indirekt - der Eindruck erweckt, es sei nur eine Frage der Zeit, bis die angeblich schon weit fortgeschrittene Künstliche Intelligenz direkt in Künstliche Kreativität umschlagen werde. Weiter oben hatte ich erläutert, dass dies nicht „einfach so“ möglich ist, bedenkt man die fundamentalen Unterschiede zwischen Intelligenz und Kreativität. Klar, hohe Intelligenz ist für einen Kreativen ohne Zweifel außerordentlich nützlich - jedoch bleibt es dabei, dass ein hoch Intelligenter nicht zwingend auch hoch kreativ sein muss. 309 6.4 Kann es „Künstliche Kreativität“ geben? <?page no="310"?> Problematisch ist zudem, dass einem Vielwisser oft automatisch hohe Intelligenz zugesprochen wird. Da dieser Irrtum den bereits behandelten Irrtum - die Gleichstellung von Intelligenz und Kreativität - noch verstärkt, wollen wir uns einige Zitate ansehen. Sie zeigen, dass Künstlern, speziell Aphoristikern, die Unterschiede schon immer bewusst waren. So meinte der österreichische Schriftsteller Karl Kraus: „Eine umfassende Bildung ist eine gut dotierte Apotheke, aber es besteht keine Sicherheit, dass nicht für Schnupfen Zyankali gereicht wird.“ „Vielwisser dürften in dem Glauben leben, dass es bei der Tischlerarbeit auf die Gewinnung von Hobelspänen ankommt.“ „Der Bibliophile hat annähernd dieselbe Beziehung zur Literatur wie der Briefmar‐ kensammler zur Geographie.“ Noch deutlicher wurde der Physiker Georg Christoph Lichtenberg: „Er hätte wohl ein besserer Gelehrter werden können, wenn er nicht so viel gelesen hätte.“ Im Zusammenhang mit der Künstlichen Intelligenz sind diese Zitate wichtig, weil sie die aktuelle Begeisterung über die angeblich so intelligenten - mit ungemein vielen Fakten gefütterten - Programme relativieren. Faktenfülle (Datenfülle) ist kein Argument dafür, dass ein solches Programm intelligent, geschweige denn kreativ sein kann. Auch ein Savant bzw. ein vom Asper‐ ger-Syndrom Betroffener (euphemistisch auch als „Inselbegabung“ oder „Autistisches Genie“ bezeichnet) hat eine Unmenge an Daten parat. Kaum jemand käme jedoch auf die Idee, ihn allein deshalb für intelligent zu halten. Viele dieser Unglücklichen sind sogar völlig unfähig, die Probleme des täglichen Lebens zu bewältigen. Als Beispiel sei der wohl berühmteste Savant, Laurence Kim Peek, angeführt. Er lebte von 1951 bis 2009. Nach einem Artikel in der „Times“ verfügte Peek über eine extreme memory capacity und war in der Lage, den Inhalt von 12 000 Büchern fehlerfrei aus dem Gedächtnis wieder-zugeben. Sein Intelligenztest ergab einen IQ von 87. Er war nicht in der Lage, selbstständig ein ganz normales Leben zu führen (nach: wikipedia.org/ wiki/ Kim_Peek#scientific_investigation). Wie erwähnt, betreffen die wenigen bisher vorgelegten Beispiele für eine (angebliche! ) Künstliche Kreativität immerhin die Bereiche Design und Kunst. Aber das überzeugt einen Naturwissenschaftler nicht. 310 6 Methodische und experimentelle Studien <?page no="311"?> Die genannten Beispiele beruhen im Grunde nur auf einer bis zur Perfek‐ tion getriebenen Mustererkennung. Natürlich ist es verblüffend, wenn ein Kompositionsprogramm perfekt den Stil von Mozart imitieren kann. Auch ein Malprogramm, das Bilder á la Rembrandt oder Rubens zu liefern imstande ist, überrascht zunächst. Allerdings basieren solche Programme, wie gesagt, grundsätzlich nur auf der Mustererkennung. Wenn genügend Einzelheiten zum Schaffen von Mozart, Rembrandt und Rubens eingespeichert wurden, kann das Programm eigentlich gar nicht anders, als seine Arbeit ganz formal im vorgegebenen Rahmen zu erledigen. Ob dies allerdings Kreativität im anspruchsvollen Sinne des Wortes genannt werden darf, ist sehr zu bezweifeln. Hinzu kommt, dass diese hoch gelobten Programme noch immer, und zwar aus den etwas später erläuterten prinzipiellen Gründen, recht mangel‐ haft arbeiten und zu erstaunlichen Fehlleistungen neigen. Naturgemäß sind die heutigen Auffassungen dazu kontrovers, zumal Horrorvisionen zu von Algorithmen gesteuerten Maschinen, welche die Weltherrschaft übernehmen, mit hineinspielen. Im Artikel „Angstträume“ ( Jung, Nezik, Rosenbach u. Schulz 2018, S. 71) wird die Situation geschildert: „Schmidhuber ist überzeugt, bald schon eine universelle künstliche Intelligenz bauen zu können: eine Maschine, die nicht nur für eine Aufgabe trainiert werden kann, sondern immer mehr Fähigkeiten erwirbt und auf jede Problemstellung angesetzt wird … Kritiker bezweifeln das. Über die heute schon mögliche Mustererkennung und ihre Hilfe bei Routineaufgaben werde die Maschine nie hinauskommen: sehr nützlich, aber im Kern doch dumm, immer auf den Menschen angewiesen. Selbst die besten Algorithmen wären nicht mal ansatzweise in der Lage, Kreativität und Abstraktionsvermögen zu demonstrieren“. Ein weiteres Beispiel betrifft die computergestützte Sprachverarbeitung. Sie krankt noch immer daran, dass dem Computer das für den Menschen selbstverständliche allgemeine Hintergrundwissen fehlt. So versteht ein Computer den Sinn des Satzes „Er hatte zu viel getrunken und war schlecht zu verstehen“ üblicherweise nicht, da ihm das Allgemein‐ wissen fehlt, dass Alkoholkonsum zu undeutlichem Sprechen führen kann. Socher (2019, S. 51) erläutert den Zusammenhang: „Unsere menschliche Kommunikation ist durchdrungen von solchen unausgespro‐ chenen Annahmen, von vorausgesetzten Kenntnissen. Das fehlt Maschinen bislang, weswegen Chatbots oder virtuelle Sprach-Assistenten oft seltsame Antworten geben. 311 6.4 Kann es „Künstliche Kreativität“ geben? <?page no="312"?> Im Gegensatz zu Menschen können Maschinen nur exakt jene Wörter und Konzepte verstehen, für die sie trainiert wurden“ (Socher 2019, S. 51). Socher hofft nun, künftig mithilfe neuronaler Netze dem Computer zu ermöglichen, aus einer großen Menge von Textdaten zu lernen, Schlüsse zu ziehen. Das ist aber wohl eher Zukunftsmusik, bedenkt man den heute eher bescheidenen Stand der Entwicklung analog arbeitender neuronaler Netze. Immerhin dürfte die Arbeitsrichtung stimmen. Zur menschlichen Kommunikation gehören vordergründig auch gewisse sprachliche Feinheiten, die den Computer auch in Zukunft überfordern dürf‐ ten. Ich meine insbesondere Doppeldeutigkeiten, ironische Formulierungen und Paradoxien. Dazu folgendes eigene Beispiel: Vor Jahrzehnten arbeitete ich mit einem befreundeten Kollegen zusam‐ men, der in dieser Hinsicht Meisterhaftetes leistete. Er besaß einen Zwerg‐ pudel. Ich fragte eines Tages: „Stimmt es, dass bei Zwergpudelrüden oft Einhodigket beobachtet wird? “. Mein Freund erwiderte: „Meist sogar beidsei‐ tige Einhodigkeit! “. Wir alberten dann noch eine Weile herum, bis unser neu gewonnener „Lehrsatz“ lautete: „Bei Zwergpudelrüden ist die beidseitige Einhodigkeit stets erblich“. Nun ist das kompletter Unsinn, jedoch könnte dies ein Algorithmus gewiss nicht erkennen. Insbesondere in Sachen Erblichkeit würde ihm das dem Menschen selbstverständliche Hintergrundwissen fehlen. Natürlich ließe sich der Algorithmus nach Eingabe des bisher fehlenden Wissens darauf trainieren, „Lehrsätze“ solcher Art sofort zu eliminieren. Indes: Wie viel ärmer wäre die Welt, wenn wir im Interesse der viel zitierten Mensch- Maschine-Kompatibilität unseren Ehrgeiz daran setzten, diese besonders anregenden Sprachspielereien, Doppeldeutigkeiten und Paradoxien zu ver‐ meiden bzw., so sie uns denn herausgerutscht sind, anschließend maschinell ausmerzen zu lassen? TRIZ, die „Theorie zum Lösen erfinderischer Aufgaben“, arbeitet sogar, methodisch bedingt, prinzipiell mit paradoxen bzw. widersprüchlichen Si‐ tuationen: Erfinderische Aufgaben sind solche, bei denen das betrachtete System heiß und zugleich kalt, feucht und zugleich trocken, oder offen und zugleich geschlossen zu sein hat. Die zur Unterstützung des Erfinders bereits existierenden Programme können aber nicht selbstständig mit solchen dialektischen Widersprüchen umgehen und müssen deshalb, Stufe für Stufe, vom Menschen bedient werden. 312 6 Methodische und experimentelle Studien <?page no="313"?> Es ist einem Algorithmus eben nicht gegeben, mit solchen (von ihm au‐ tomatisch als „unsinnig“ eingestuften) Formulierungen etwas anzufangen, geschweige denn, die Dialektik unmöglich anmutender Aufgabenstellungen zu verstehen oder sie gar kreativ umzusetzen. Auch die viel gerühmten Bilderkennungsprogramme sind als Beispiele für die Künstliche Intelligenz („KI“), von Künstlicher Kreativität ganz zu schweigen, eher ungeeignet (Schlak 2019, S. 95): „Selbst die besten Bilderkennungsprogramme lassen sich leicht in die Irre führen. Um das zu beweisen, legten Forscher über das Foto eines Schweins ein schwaches Rauschen, vergleichbar mit einer Bildstörung beim Fernsehen. Während der Mensch weiterhin einwandfrei ein Schwein erkannte, sah der Computer plötzlich: ein Flugzeug. Solche Angriffe auf die Bilderkennungssoftware lassen sich konstru‐ ieren … Schon gezielt angebrachte Aufkleber auf einem Stoppschild könnten einem selbst fahrenden Auto weismachen, dass es nicht bremsen muss. Selbstlernende Systeme sind anfällig für solche Manipulationen, weil sie nicht wissen, was sie tun.“ Bilderkennungsprogramme lassen sich immerhin verbessern, wenn die Anzahl der eingegebenen Muster immer weiter gesteigert wird. So gibt Katharina Zweig (2019, S. 184) an, dass die Fehlerrate in der Bilderkennung durch Künstliche Intelligenz zwischen 2010 und 2017 von 28 auf 2,25 % gesunken ist. Zweig (2019, S. 184) betont, dass die neuesten Programme Erstaunliches leisten: „Wenn selbst verdeckte Objekte, die noch nicht einmal unbedingt die Hauptrolle spie‐ len, von ihnen entdeckt und dabei sehr spezifische Kategorien wie unterschiedliche Hunderassen zum Einsatz kommen, ist es nahezu unglaublich, dass die Maschinen heute nur noch 2,25 % der Bilder falsch klassifizieren …“ Wenn man nun nach dem Vergleich mit menschlichen Bewertern fragt, kommt man allerdings sehr ins Grübeln. Zweig schreibt dazu: „Die Bewertung wurde schließlich von zwei Experten vorgenommen, die zunächst 500 Bilder inklusive der richtigen Klassifizierung bekamen. Einer der Experten ordnete 258 Bilder zu, dann warf er das Handtuch. 12 Prozent dieser Bilder hatte er falsch zugeordnet. Der andere hielt deutlich länger durch: Er ordnete insgesamt 1500 Bilder zu, bei einer Fehlerquote von 5,1 Prozent. Und das ist er: der menschliche Standard, mit dem seither alle anderen Systeme verglichen werden. Mit anderen 313 6.4 Kann es „Künstliche Kreativität“ geben? <?page no="314"?> Worten: Die oft zitierte „menschliche Bilderkennungsrate“ beruht auf der Leistung einer einzigen, kurzfristig angelernten Person“ (Zweig 2019, S. 185). Prinzipiell ändert das alles nichts am Sachverhalt: Insgesamt ist davon auszugehen, dass die so genannte Künstliche Intelligenz beim heutigen Stand der Dinge alles andere als intelligent ist, besonders dann, wenn die störenden Einflüsse des wahren Lebens im Spiele sind. Zwar sind, wie erläutert und begründet, Intelligenz und Kreativität keinesfalls Synonyme, jedoch wird die Beantwortung der Frage, ob Künstliche Kreativität jemals möglich sein könnte, dennoch zunächst einmal beim Stand der Entwicklung der Künstlichen Intelligenz ansetzen. Die meisten der oben behandelten Beispiele zeigen, dass selbst vergleichsweise einfache menschliche Fähig‐ keiten von den Programmen nicht verlässlich simuliert werden können. Die erläuterten Ausnahmen sind nur vermeintliche Ausnahmen: Im Rahmen eingeschränkter, hoch spezifischer Anforderungen kann ein Programm den Menschen durchaus übertreffen. Wird es bei der Bearbeitung einer Aufgabe jedoch im geringsten Maße komplex, und ist das beim Menschen per se vorhandene umfangreiche Hintergrundwissen gefragt, versagt der Algorithmus kläglich. Somit liegt es schon aus dieser Sicht nahe, an der Möglichkeit zu zweifeln, dass jemals ein kreativ arbeitendes künstliches System geschaffen werden kann. Speziell gilt dies für die technisch-wissenschaftliche Kreativität, deren Besonderheiten ich nachstehend skizziere: Ein Algorithmus ist nicht in der Lage, eigenständig neue Aufgabenstel‐ lungen zu entwickeln. Neue Aufgabenstellungen sind es aber, die zu an‐ spruchsvollen Erfindungen führen. Ferner ist ein Algorithmus außerstande, Entdeckungen zu machen. Diese sind dem Menschen vorbehalten: Ein in der Natur zwar vorhandener (bisher aber noch nicht bemerkter) Ursache-Wir‐ kungs-Zusammenhang kann eben vom Algorithmus, da im Programm nicht enthalten, nicht bemerkt, geschweige denn genutzt werden. Selbst wenn die physikalisch beteiligten Parameter im Programm enthalten sein sollten, so fehlt dem Programm doch die Fähigkeit, den bisher noch nicht beachteten (für uns also neuen) Ursache-Wirkungs-Zusammenhang als solchen zu erkennen, das heißt, die fällige Entdeckung zu machen. Entdeckungen sind es aber, welche zu besonders hochwertigen Erfindungen führen: Wer erstmals einen bisher nicht bemerkten Ursache-Wirkungs-Zusammenhang entdeckt, ist in der Lage, eine besonders überraschende Mittel-Zweck-Beziehung aufzubauen und damit eine Erfindung auf hohem Niveau zu schaffen. 314 6 Methodische und experimentelle Studien <?page no="315"?> Bereits Altschuller (1984) hat darauf hingewiesen, dass nur ganz wenige Erfindungen höchsten Ansprüchen an die erfinderische Leistung genügen. Diese werden ganz gewiss dem Menschen vorbehalten bleiben. Vielleicht könnten drittrangige Erfindungen - an der Grenze zur Schutzfähigkeit - ir‐ gendwann einmal nach dem Prinzip der Mustererkennung zugänglich wer‐ den. Erste Ansätze liefern die heute schon verfügbaren TRIZ-Programme. Sie funktionieren aber noch immer so, dass dem Menschen, Stufe für Stufe, Vorschläge zum weiteren Vorgehen sowie Lösungsvorschläge auf Basis möglicherweise analoger Sachverhalte gemacht werden. Die „Über‐ setzungsarbeit“ (Ist der Vorschlag zum weiteren Vorgehen sinnvoll oder nicht, ist die angebotene Analogie als Muster für die Lösung tauglich? ), und damit die Entscheidung, ist dann aber, Stufe für Stufe, nach wie vor Sache des Menschen. Nun ließe sich einwenden, dass ein Algorithmus auf das Arbeiten mit Wahrscheinlichkeiten programmiert werden kann. Dann könnte die Ent‐ scheidung, welcher weitere Bearbeitungsweg gewählt oder welche Analogie als zutreffendes Beispiel akzeptiert wird, dem Computer überlassen werden. Dies mag zwar funktionieren, aber Wahrscheinlichkeiten gehen bekanntermaßen von prinzipiell bekannten Zusammenhängen aus, so dass die besonders ungewöhnlichen Lösungen, die wir als Erfinder ja anstreben, per Algorithmus eben nicht zugänglich sind. Zum Auffinden solcher Lösungen ist nur der menschliche Geist fähig, da er nicht digital herumsucht, sondern assoziativ-analog denkt. Nur bei dieser Arbeitsweise kommen aber die hoch kreativen Lösungsvarianten (neben allerhand Müll, der aber nicht weiter stört) überhaupt vor. Weiter oben bin ich bereits darauf eingegangen, dass dies den Programm‐ entwicklern durchaus klar ist, und so wird - mit bisher mäßigem Erfolg - seit längerem versucht, das analoge Denken zu simulieren. Heute ist man erst beim „Nachbau“ einfachster neuronaler Netze angelangt, etwa auf dem Niveau des Regenwurmes. Sollte es je gelingen, die Denkweise höher intelligenter Wesen technisch nutzbar zu simulieren, sähe die Situation ohne Zweifel anders aus. Jedoch sollte bedacht werden: Unser Maßstab ist nicht das Gehirn des Salamanders, der Maus oder des Koalas, sondern das menschliche Gehirn. Paasche (2019) hat sich auf meinen Wunsch mit den Perspektiven der Künstlichen Intelligenz auseinandergesetzt und wesentliche Aspekte der voraussichtlichen Entwicklung aus der Sicht des erfahrenen Elektronikers analysiert: 315 6.4 Kann es „Künstliche Kreativität“ geben? <?page no="316"?> „Computer der Zukunft werden sich am weltweiten Wissen wie Bienen am Nektar bedienen können und somit in der Wissensbereitstellung dem Menschen überlegen sein. Das Internet ist derzeit allerdings eher eine Müllhalde bzw. ein Instrument der Werbeindustrie. Damit Computer Wissen aus dem Internet nutzen können, muss es aufbereitet oder durch einen Menschen interpretiert werden. Das bedeutet, dass allein die Menge an Daten kein Wissen darstellt. Es ist schlichtweg für eine künstliche Intelligenz nicht nutzbar, oder müsste … erst aufbereitet werden. Das menschliche Gehirn besteht aus Milliarden von Nervenzellen und Synapsen, die das Wissen in Muster zerlegt, speichert. Die Fähigkeit, Wissen oder Ereignisse spei‐ chern zu können, beruht auf einem ständigen Training des Gehirns. Dabei werden Verknüpfungen zwischen den Neuronen ausgebildet oder verödet. Die derzeitige Künstliche Intelligenz versucht diese Arbeitsweise des Gehirns nachzubilden. Dies geschieht durch einzelne Neuronen oder einfache neuronale Netze. Die Funktion der Neuronen lässt sich im Sinne einer Mikrorechnereinheit oder als sequenziell abzu‐ arbeitende Programmstruktur darstellen. Dabei ist die Rechenleistung im Vergleich zum biologischen Vorbild heute noch sehr gering. Meiner Ansicht nach bedarf es einer Kombination von Speicherzelle, Fuzzy-Logic und Analogrechner. Der Aufbau auf einem Chip entspräche dann einem konfigurierbaren Widerstandsnetzwerk, bestehend aus Feldeffekt-Transistoren am Eingang, deren Signale summativ erfasst und per Zwischenverstärker entkoppelt werden. Nachfolgend speichert dann ein Kondensator die Information zwischen. Am Ausgang befindet sich eine Synapse. Meiner Auffassung nach erzeugt das Gehirn einen internen Synchrontakt, mit dem die Zwischenergebnisse der Neuronen über die Synapsen weitergeleitet werden. Im EKG sieht man charakteristische wiederkehrende Signale sowie die Muskelkont‐ raktionssignale der Synapsen in der Gehirnrinde. Man könnte Synapsen wohl als eine Art Sample-and-hold-Schaltung auffassen. Ich kann mir vorstellen, dass mit fortschreitender Erforschung der Funktionsweise des menschlichen Gehirns dessen Arbeitsweise klarer wird. Somit wird es in Zukunft kleine, später auch umfangrei‐ chere neuronale Netzwerke geben, die dem menschlichen Vorbild entsprächen. Erst wenn dieser Entwicklungsschritt vollzogen ist, sind künstliche Assistenten denkbar, die in der Lage wären, Wissen neu zu verknüpfen“ (Paasche 2019, persönliche Mitteilung). Derzeit allerdings wird wohl kein Programm, sei es auch noch so gut und zudem selbstlernend, derart komplex sein können, dass es alle Kreuz- und Quer-Vernetzungen zu allen Wissensgebieten (einschließlich aller nicht‐ wissenschaftlichen Assoziationsmöglichkeiten, von denen der Kreative - nebenbei, „aus dem Bauch“ - stets profitiert) herzustellen vermag. Zudem 316 6 Methodische und experimentelle Studien <?page no="317"?> dürfte der Algorithmus auch künftig nicht in der Lage sein, unerwartete Zwischenergebnisse bei der Bearbeitung eines Themas zu wichten, zu werten, und auswählend selbst über die weitere Art der Bearbeitung des Themas zu entscheiden. Dass hierbei die - ansonsten ja sinnvolle - Arbeit mit Wahrscheinlichkeiten eher kontraproduktiv ist, habe ich weiter oben bereits begründet. Wissenschaft lebt eben ganz wesentlich von den über‐ raschend auftauchenden (ganz neuen) Sachzusammenhängen und deren kreativer Deutung und Nutzung für den nächsten Arbeitsschritt. Zudem hat der Computer keine Bedürfnisse und keine eigenen Zielvorstellungen. Er weiß noch nicht einmal, wer er ist, was er macht, und was das, was er macht, überhaupt bedeutet. Stimmungen sind ihm fremd, und er kennt nicht die Verschiebungen der Betrachtungsweise, die sich unter solchen Einflüssen sowie unter der Einwirkung charakterlicher Besonderheiten, subjektiver Aspekte etc. ergeben. Vom Einfluss der Intuition, der Phantasie, des Lebensalters, des Geschlechts, der Hormone, des sozialen Umfeldes, der persönlichen Marotten, des im Vergleich zum Algorithmus völlig anders ge‐ arteten menschlichen Denkens will ich gar nicht reden. Dies alles ließe sich, falls überhaupt, nur unvollkommen in einem Programm berücksichtigen - aber nicht wirklich menschlich, sondern nur als eine gleichsam „hölzerne“ Simulation, die wohl kaum weiterhelfen dürfte. Befremdlich finde ich unter diesen Umständen, dass einige der KI-Spezia‐ listen zu glauben scheinen, moderne Programme verfügten bereits über so etwas wie ein „aufsteigendes Bewusstsein“: „Die grundlegende Frage, was „bewusste KI“ sei und was an den Szenarien von Maschinen mit einer eigenständigen Existenz dran sei, wird selten gestellt … Manche halten es für ausgeschlossen, dass Maschinen, insbesondere KI-Systeme, irgendwann einmal „bewusst“ werden. Andere behaupten, bewusste KI-Systeme seien längst da und versteckten sich noch vor uns“ (Kroll 2019 a). Die absonderliche Annahme, Systeme dieser Art verfügten bereits über ein Bewusstsein, seien sogar schlau genug, selbiges vor uns zu verbergen, ist nach meiner Auffassung unverantwortlich spekulativ. Sinnvoller erscheint mir die nüchterne Definition des Gebietes, in dem einfache KI (ohne jedes Bewusstsein) nützlich sein kann. Im Bericht über das Forum „Künstliche Intelligenz 2019“ lesen wir dazu: „… kann die KI ihre Stärken ausspielen, indem sie … stupide Aufgaben übernimmt, die den Menschen ermüden, z. B. in Form der Bilderkennung in der Qualitätssiche‐ 317 6.4 Kann es „Künstliche Kreativität“ geben? <?page no="318"?> rung. Je spezialisierter die Aufgaben sind, desto eher kann Künstliche Intelligenz helfen. KI hat dabei kein Bewusstsein, keinen Willen und keine Zielorientierung. „Neuronale Netze sind strohdumm und können 3,5 Milliarden Jahre Evolution niemals ersetzen“, so Ruskowski“… (Kroll 2019 b). Die Frage der Künstlichen Intelligenz spielt in Kopplung mit der Frage, ob Künstliche Kreativität überhaupt denkbar ist, nicht nur im naturwissenschaftlich-technischen Bereich eine Rolle. Sie wird in dem Artikel „Artifical Creativity - kann künstliche Intelligenz kreativ sein? “ vom Marketing- und Kommunikationsexperten Schipper wie folgt beurteilt: „Der Name verrät es ja schon. Diese Intelligenz macht nur künstlich das nach, was die menschliche Intelligenz zuvor erschaffen hat. Sie kann also nur bis zu einem gewissen Grade bestmöglich wiederholen, was man ihr vorher beigebracht hat. Und dieses Prinzip ist stabil und kann nicht verändert werden, und damit wird auch klar, dass KI keine eigenen Ideen entwickeln kann - wie beruhigend“ (Schipper 2018). Dem ist kaum etwas hinzuzufügen. Selbst wenn man den heutigen Program‐ men zugute hält, dass sie selbstlernend sind, so kann dieses Lernen - das mit menschlichem Lernen nicht zu vergleichen ist - eben nur im Rahmen des Programmes erfolgen. Eine Besonderheit der Kreativität ist jedoch, stets aus einem wie auch immer gearteten Programm ausbrechen zu können. Man könnte sogar sagen, dass wahre Kreativität sich nur außerhalb vorgegebener Programme entfaltet. Überdies ist es, speziell beim Erfinden, nicht mit einem einzigen pfiffigen Gedanken getan. Es erfordert mühseliges, stets kreatives Arbeiten, bis eine praktikable Lösung vorgelegt werden kann. Ich hatte bereits darauf hinge‐ wiesen, dass die Wichtung und Wertung unerwarteter Zwischenergebnisse bei einer solch kreativen Arbeit wohl grundsätzlich Sache des Menschen bleiben wird. Schollmeyer (2018) hat am Beispiel der Arbeit des Handwerkers angemerkt, dass gar nicht unbedingt von erfinderischer Tätigkeit die Rede sein muss, wenn es um Kreativität geht: „Ein einziger Arbeitstag eines Handwerkers erfordert … den Umgang mit so viel Ungewissheit, dass Algorithmen weit davon entfernt sind, die erforderlichen Urteile auch nur ansatzweise fällen zu können.“ Wer im Falle einer Software-Störungsmeldung an seinem Auto jemals die hilflosen Versuche des Spezialisten in der Werkstatt erlebt hat, den Fehler nicht nur zu finden, sondern ihn auch verlässlich und dauerhaft zu beheben, 318 6 Methodische und experimentelle Studien <?page no="319"?> dürfte wohl zustimmen. In grauer Vorzeit, als wir unsere Autos noch selbst reparieren konnten, wussten wir wenigstens, was wir taten. Heute ist das nicht mehr so: Oben erwähnter Spezialist teilt uns mit, der Computer melde, dass „da mal irgendein Fehler“ war, er könne aber leider nicht feststellen, welcher. Wir setzen uns also in unser Auto, fahren davon und starren genervt auf die nach kurzer Zeit erneut aufleuchtende Fehleranzeige: „Suchen Sie umgehend die Werkstatt auf “! Katharina Zweig (2019) hat sich intensiv mit dem Entwicklungsstand und der sozialen Seite der Künstlichen Intelligenz befasst. Im von Zweig geschaffenen Studiengang „Sozioinformatik“ werden beispielsweise Fragen behandelt, die sich im Zusammenhang mit Algorithmen zur Einschätzung der Wahrscheinlichkeit stellen, mit der inhaftierte Straftäter nach der Entlas‐ sung abermals straffällig werden. Auch Algorithmen, die den Personalchef eines Unternehmens bei Durchsicht der eingehenden Bewerbungsflut un‐ terstützen, denen sogar die Bewertung der jeweiligen Bewerber überlassen werden soll, sind kritisch zu betrachten: „Ich persönlich bin immer noch sehr skeptisch, wie oft es wirklich vorkommen wird, dass Menschen durch Algorithmen des maschinellen Lernens in ihren Entscheidun‐ gen über andere Menschen sinnvoll unterstützt oder gar ersetzt werden können … Natürlich können Algorithmen des maschinellen Lernens im Rahmen eines Data Minings erst mal genutzt werden, um mögliche Gründe für ein vorherzusagendes Verhalten zu finden. Aber am Ende sollten nur noch Variablen Eingang in das statistische Modell finden, bei denen ein kausaler Zusammenhang begründbar ist“ (Zweig 2019, S. 263/ 264). Ob es heute überhaupt schon eine anspruchsvolle Künstliche Intelligenz („starke“ KI) gibt, wird von Expertinnen und Experten bezweifelt: „Als ‚starke‘ KI bezeichnen wir Software, die menschliche Fähigkeiten in fast allen Punkten erreicht oder gar übersteigt. Es ist eine Software, die sich eigene Probleme heraussucht und diese dann systematisch untersucht, um eine Lösung zu finden. Schwache KI dagegen kann Einzelaufgaben bewältigen: Dies sind die genannten Systeme, die Schach spielen, Bilder erkennen oder gesprochenes Wort in Text umwandeln können. Momentan sehen wir also nur schwache KI … Meine Kollegin Hannah Bast sagte dazu: ‚In Wahrheit sind wir doch gerade erst von der äußerst schwachen zur sehr schwachen KI gekommen‘. Jürgen Geuter sagt zur künstlichen Intelligenz, wie wir sie heute kennen: ‚Letztlich existiert KI nicht. Und 319 6.4 Kann es „Künstliche Kreativität“ geben? <?page no="320"?> sie ist auch nicht nah … Künstliche Intelligenz ist nur ein Werbebegriff ‘“ (Zweig 2019, S. 267). Zweig (2019) hält für den - auch aus ihrer Sicht - äußerst unwahrschein‐ lichen Fall, dass wir es doch irgendwann einmal mit echter KI zu tun bekommen sollten, die strikte Einhaltung starker ethischer Regeln für erforderlich. Noch besser wäre, auch darin ist Zweig zuzustimmen, nicht alles zu entwickeln, was sich prinzipiell entwickeln lässt. Nur zeigt die Geschichte der Menschheit, dass bisher niemals so verfahren wurde. Stets fand früher oder später - neben der sinnvollen - auch eine missbräuchliche Anwendung der neuesten Ideen und der bedenkenlos daraus entwickelten Technologien statt. So gibt es bereits bei den heutigen KI-Programmen ernste Missbrauchsten‐ denzen: Wer möchte sich schon von einem Algorithmus - statt von einem Menschen - bewerten lassen? Wem wird nicht mulmig zumute, wenn er an die mit dem autonomen Fahren verbundenen Abwägungssituationen denkt? Wem graut nicht vor Kriegsrobotern, wenn bereits die heutigen „Präzisions‐ waffen“ harmlose Hochzeitsgesellschaften statt böser Terroristen treffen? Die grundsätzlichen Probleme auf dem Wege zu einer den Namen verdie‐ nenden Künstlichen Kreativität sind völlig ungelöst. Zwar wird sich die so genannte Künstliche Intelligenz trotz systembedingt unüberwindbarer Defizite weiterentwickeln; die Vorstellung indes, damit werde der Weg zur Künstlichen Kreativität frei gemacht, ist illusorisch. Fazit: Wir sollten uns freuen, dass der Mensch alle wirklich kreativen Schritte auch künftig allein gehen und verantworten muss. 320 6 Methodische und experimentelle Studien <?page no="321"?> 7 Von der Erfindung zur geschützten Erfindung 7.1 Klar definiert: Entdeckungen, Erfindungen, Schutzrechte Damit es nicht zu Missverständnissen kommt, möchte ich zunächst die wichtigsten Begriffe noch einmal im Zusammenhang behandeln. Entdeckungen sind im schutzrechtlichen Sinne die so genannte Effekte bzw. Phänomene, d. h. physikalische oder chemische Wirkungen, die naturgesetzlich bedingt sind, und die - unabhängig davon, ob dem Menschen bereits bekannt oder nicht - objektiv existieren. Ein Entdecker ist also „nur“ ein besonders aufmerksamer Mensch, der einen solchen Effekt erstmalig bemerkt. Ein sehr einfaches Kriterium ist, dass Entdeckungen durch einen Ursache-Wirkungs-Zu‐ sammenhang charakterisiert sind (Weil ein bestimmter physikalischer Grund dafür vorliegt, deshalb tritt eine bestimmte Wirkung ein). Jener steinzeitliche Mensch, der erstmalig beobachtete, dass ein Baumstamm freiwillig einen Abhang hinunterrollt, war ein Entdecker. Dass ihm die physikalischen Zusam‐ menhänge nicht klar waren, tut nichts zur Sache. Auch moderne Entdecker haben nicht immer sofort die zur Erklärung ihrer Beobachtung geeignete Theorie zur Hand; manchmal existiert sie noch gar nicht. Einige der „klassischen“ Entdeckungen („Physikalische Effekte und ihre Umkehreffekte“) habe ich in Tab. 3 bereits besprochen. Für unser Thema wichtig ist, dass Effekte (Wirkungen) prinzipiell nicht schutzfähig, d. h. konkret: nicht patentierbar sind. Erfindungen hingegen basieren nicht, wie die Entdeckungen, auf einem Ursache-Wirkungs-Zusammenhang, sondern auf einem Mittel-Zweck-Zu‐ sammenhang: Wenn ich ein bestimmtes technisches Mittel einsetze, dann erreiche ich damit einen bestimmten technischen Zweck. Unser oben erwähnter Steinzeitmensch war, soweit wir wissen, noch kein Erfinder - obwohl er ein Entdecker war. Erst wesentlich später kam ein anderer Mensch auf die Idee, von dem rollfähigen Baumstamm eine Scheibe abzusägen, und diese mit einer Nabe zu versehen. So wurde das Rad erfunden. Das entscheidende technische Mittel auf dem Weg zum Rad war übrigens nicht die technisch allein nur bedingt brauchbare Baumscheibe, sondern die Nabe. Manche Puristen behaupten <?page no="322"?> bekanntlich, die Menschheit habe überhaupt niemals etwas Nennenswertes erfunden - ausgenommen das Rad. Wer das unbedingt so sehen will, sollte deshalb wenigstens korrekt sagen: Die wichtigste Erfindung in der Menschheitsgeschichte war die Nabe samt Achse. Erfindungen sind, falls man sie nicht zum Patent anmeldet, ungeschützt. Da sie jedoch - im Gegensatz zu den Entdeckungen - schutzfähig sind, werden sie, sofern wirtschaftliches Interesse im Spiel ist, gewöhnlich zum Patent angemeldet. Entscheidend dafür ist allerdings auch die Unternehmenspolitik. Manche Unternehmen setzen darauf, ihre Erfindungen grundsätzlich nicht zum Patent anzumelden, da letztlich - bei allen verbalen Vernebelungskünsten - das Know-how offenbart werden muss, und die Konkurrenz vor systematischem Ideenklau nicht zurückschreckt (siehe dazu: Kapitel 7.4). Solche Unternehmen setzen darauf, dass sie ihre Erfindungen geheim halten und den technologischen Vorsprung nutzen, bis sich - unvermeidlicherweise - die Sache eben doch herumgesprochen hat, und so zur allgemeinen technischen Lehre wird. Schutzrechte sichern ihrem Besitzer ein Ausschließungsrecht. Dieses verbietet Dritten die Nutzung, es sei denn, es wird eine Lizenz vergeben. In unserem Zusammenhang sind die wichtigsten Schutzrechte die Patente. Hinzu kommen noch Marken (Wortmarken und/ oder Bildmarken) sowie Muster (die besonders wichtigen Gebrauchsmuster sowie der Design-Schutz). Das Deutsche Patent- und Markenamt (DPMA) hat wichtige Details zum Charakter dieser Rechte und zu den Anmeldeformalitäten im Internet allgemein zugänglich gemacht. 7.2 Was heißt „schutzfähig“? Haupt- und Hilfskriterien Betrachten wir die wichtigste Schutzrechtsklasse, die Patente. Zunächst stellt sich die Frage, was patentiert werden kann, und was vom Patentschutz ausge‐ schlossen ist. Einen sehr wichtigen Punkt hatte ich oben bereits behandelt: Entdeckungen bzw. Wirkungen sind nicht schutzfähig. Grundsätzlich schutzfä‐ hig sind jedoch technische Lösungen (wenn ich ein bestimmtes Mittel einsetze, dann erziele ich ein bestimmtes technisches Ergebnis). Dieses Ergebnis kann ein Produkt, ein Verfahren oder eine Vorrichtung sein. Der Begriff „Technische Lösung“ ist nicht starr definiert, zumal Wissenschaft und Technik in rasanter Entwicklung begriffen sind. Demgemäß franst der Begriff an den Rändern inzwischen ziemlich aus, jedoch gibt es halbwegs verlässliche Fixpunkte. So 322 7 Von der Erfindung zur geschützten Erfindung <?page no="323"?> sind Organisationsschemata, Pläne, Regeln und Verfahren für gedankliche Tätigkeiten, für Spiele, für Geschäftsprozesse, auch für Computerprogramme (letztere in ihrer „reinen“ Form; ist hardware beteiligt, kann es Ausnahmen geben) nach wie vor nicht schutzfähig. Gleiches gilt für wissenschaftliche Theo‐ rien und mathematische Methoden. Naheliegenderweise sind auch Erzeugnisse, welche gegen die guten Sitten verstoßen oder die öffentliche Ordnung verletzen könnten, vom Patentschutz ausgenommen. Pflanzensorten sowie biologische Verfahren zur Züchtung von Pflanzen und Tieren sind an sich ebenfalls nicht schutzfähig; gerade dieses Gebiet ist jedoch, bis in die Gentechnik hinein - nicht zuletzt auch im Ergebnis massiver Lobbyarbeit - in Bewegung geraten. Klar ist nur, dass gentechnische Erfindungen, sofern sie den Menschen betreffen, vom Patentschutz ausgeschlossen bleiben sollen. Beinahe unverschämt könnte man die vor einiger Zeit gestarteten Versuche nennen, Gensequenzen zum Patent anzumelden. Diese Versuche scheiterten aber bereits daran, dass Gensequenzen schließlich etwas bereits Vorhandenes sind, und ihre erstmalige Aufklärung folglich unter die generell nicht schutzfähige Klasse der Entdeckungen fällt. Hingegen sind mikrobiologische Verfahren und deren Erzeugnisse patentierbar. Sehen wir uns nun die Bedingungen an, die zu erfüllen sind, damit der Patentschutz für eine beim Patentamt eingereichte Anmeldung - die technischer Natur sein muss - erteilt werden kann: ■ Die Lösung muss neu sein, ■ Die Lösung muss auf einer erfinderischen Tätigkeit beruhen, ■ Die Lösung muss gewerblich anwendbar sein. Diese Hauptkriterien bedürfen der näheren Erläuterung. Zunächst betrach‐ ten wir den Begriff der Neuheit. Er ist räumlich und zeitlich absolut wörtlich zu nehmen, d. h., die vom Anmelder beschriebene Lösung darf nirgends auf der Welt je beschrieben oder in irgendeiner Form bekannt gemacht worden sein. Wichtig: Nicht nur Patentschriften, auch beliebige - sogar triviale - Quellen können einem Schutzbegehren im Wege stehen, selbstverständlich auch die offenkundige Vorbenutzung. So versuchte ein Erfinder ein Verfahren zum Heben gesunkener Schiffe zum Patent anzumelden. Der erfinderische Gedanke war, dass mithilfe leichter Hohlkörper - über eine Leitung in den Schiffsrumpf gepresst - so viel Auftrieb erzeugt werden sollte, dass das Schiff gehoben werden bzw. von selbst auf‐ schwimmen konnte. Der Prüfer im Patentamt verweigerte jedoch die Erteilung. Er hatte in einem Walt Disney-Film eine Szene gesehen, in der Donald Duck, 323 7.2 Was heißt „schutzfähig“? Haupt- und Hilfskriterien <?page no="324"?> 4 Ich selbst habe, damals noch blutiger Anfänger in Erfindungssachen, eine entspre‐ chend unangenehme Überraschung erlebt: Meine erste Publikation zur Umsetzung von Phosphorschlamm mit Natronlauge hatte als Zielprodukt Natriumphosphit zum Gegenstand. In dieser Publikation (Zobel u. Matthes 1967) wurde erläutert, dass bei der Reaktion von Phosphor mit Natronlauge nicht nur Phosphit, sondern daneben zunächst auch Hypophosphit entsteht. Als ich nun ein Verfahren zur Herstellung von Hypopho‐ sphit aus Phosphorschlamm anzumelden versuchte, wurde mir ausschließlich meine eigene Veröffentlichung entgegengehalten; die Patenterteilung wurde verweigert. Der Umstand, dass ich in meiner Hypophosphit-Anmeldung andere Parameter als für das Zielprodukt Natriumphosphit angegeben hatte, nützte mir nichts, denn die prinzipielle Herstellbarkeit des Hypophosphits auf diesem Wege war aus der Vorver‐ öffentlichung klar ersichtlich. emsig tauchend, einen Tischtennisball nach dem anderen in den Rumpf eines gesunkenen Schiffes einbrachte, bis der Auftrieb das Schiff nach oben brachte. Auch eigene Vorveröffentlichungen oder die voreilige Bekanntgabe des erfinderischen Gedankens in Vorträgen oder auf Messen sind neuheits‐ schädlich. 4 Früher war man der Auffassung, dass eine erfinderische Idee nur für den Zeitraum der letzten 100 Jahre neu zu sein hat. Diese heute (da absolute Neuheit verlangt wird) nicht mehr gültige Auffassung beruhte auf der Annahme, dass alte Ideen technisch nicht mehr relevant sind. Jedoch kann das Gegenteil der Fall sein: Gerade alte Ideen erweisen sich oft als revolutionär, wenn ihre technische Nutzung, nunmehr unter Einsatz neuer Methoden und Materialien, abermals praktiziert wird. Natürlich kommt es auch vor, dass man dabei - in Unkenntnis früherer Lösungen - versehentlich die Technik rückentwickelt oder, wenn auch unabsichtlich, eine alte Lösung in neuem Gewande darbietet. Ein eigenes Beispiel soll zeigen, wovon die Rede ist. Ich beschreibe den Vorgang nachfolgend so, wie er real abgelaufen ist (Zobel 2019): Eine Trübe sollte filtriert werden. Die verfügbaren Wasserstrahlpumpen waren blockiert. Da ohnehin noch andere Experimente liefen, habe ich eine Labornutsche (Saugflasche, durchbohrter Gummistopfen, Porzellan-Nut‐ sche) nebenher unter Normaldruck betrieben. Das Filtrat tropfte durch das Filtertuch und füllte allmählich die Saugflasche. Um den Vorgang nicht unterbrechen zu müssen, habe ich dann einen Schlauch als Filtratüberlauf auf den Evakuierungsstutzen gesteckt. Die Saugflasche stand auf dem Labortisch, der Schlauch führte in einen auf dem Fußboden stehenden Eimer (Abb. 60). Beim Nachgießen weiterer Trübe war zu beobachten, dass plötzlich die Filtrationsgeschwindigkeit stark anstieg. 324 7 Von der Erfindung zur geschützten Erfindung <?page no="325"?> Die nahe liegende Vermutung, dass dafür die Saugwirkung des durch den Schlauch ablaufenden Filtrats verantwortlich sein müsste, wurde durch folgende Beobachtungen erhärtet: ■ Mit dem Filtrat zusammen wurden Luftblasen durch den Schlauch abwärts transportiert. ■ Besonders hohe Filtrationsgeschwindigkeiten wurden erreicht, wenn der Filtratstrom per Schlauchklemme leicht angedrosselt wurde. ■ Die Filtrationsgeschwindigkeit erhöhte sich, wenn man den Niveauun‐ terschied vergrößerte. ■ Gleichmäßige Filtration ließ sich nur bei getaucht betriebenem Ablauf‐ schlauch erreichen. 295 • Mit dem Filtrat zusammen wurden Luftblasen durch den Schlauch abwärts transportiert. • Besonders hohe Filtrationsgeschwindigkeiten wurden erreicht, wenn der Filtratstrom per Schlauchklemme leicht angedrosselt wurde. • Die Filtrationsgeschwindigkeit erhöhte sich, wenn man den Niveauunterschied vergrößerte. • Gleichmäßige Filtration ließ sich nur bei getaucht betriebenem Ablaufschlauch erreichen. Schnellfiltration unter Eigenvakuum mit Hilfe einer „hängenden“ bzw. langsam herabströmenden Filtratsäule: Ideale Demonstration der „Von Selbst“ - Arbeitsweise (Prinzip 25) mithilfe hydraulischer Effekte (Prinzip 29) Die für den Prozess erforderliche beschleunigende Triebkraft wird vom Medium während des Bearbeitungsvorganges selbst erzeugt. Das ablaufende Klarfiltrat (Produkt) sorgt für schnellere Filtration: mehr Produkt 1 Porzellan-Nutsche 2 Filtertrübe 3 Saugflasche 4 Polyethylenschlauch für das ablaufende Filtrat, welches das zur Beschleunigung der Filtration notwendige Arbeitsvakuum selbst erzeugt 5 Filtratbehälter (getaucht betriebenes Reservoir) 1 2 4 3 5 Zweifellos handelt es sich bei dem Vorgang um eine ganz einfache Sache. Sicherlich ist die geschilderte oder eine ähnliche Vorrichtung bereits von anderen Experimentatoren verwendet worden. Ansonsten wird man beispielsweise an den Jenaer Analysentrichter für schnelle Filtration erinnert. Wir haben es demnach mit dem bestens bekannten, sehr einfachen Physikalischen Effekt Saugende Wirkung einer „hängenden“ bzw. langsam herab strömenden Flüssigkeitssäule, und ebenso mit Altschul- Abb. 60 Schnellfiltration unter Eigenvakuum 325 7.2 Was heißt „schutzfähig“? Haupt- und Hilfskriterien <?page no="326"?> Zweifellos handelt es sich bei dem Vorgang um eine ganz einfache Sa‐ che. Sicherlich ist die geschilderte oder eine ähnliche Vorrichtung bereits von anderen Experimentatoren verwendet worden. Ansonsten wird man beispielsweise an den Jenaer Analysentrichter für schnelle Filtration erin‐ nert. Wir haben es demnach mit dem bestens bekannten, sehr einfachen Physikalischen Effekt Saugende Wirkung einer „hängenden“ bzw. langsam herabströmenden Flüssigkeitssäule, und ebenso mit Altschullers Prinzip Nr. 29 „Nutzung pneumatischer und hydraulischer Effekte“ zu tun. Weil nun die im Sinne der Wiederverwendbarkeit der Idee zu wählende Denkrichtung bereits klar erkennbar sein sollte, wollen wir zunächst über‐ legen, wo der Effekt technisch bereits genutzt wird. Nach Durchsicht der sofort verfügbaren Erfahrungen und Kenntnisse zeigt sich, dass es bereits einzelne industrielle Anwendungsgebiete gibt (z. B. die automatische Kolonnensumpfentwässerung, den Einspritzkondensator). Zum Assoziationsmaterial dürfte neben dem Jenaer Analysentrichter für schnelle Filtration auch der Melitta- Kaffeefiltereinsatz (bitte sehen Sie sich selbigen genau an! ) und, im weiteren Sinne, auch das Torricelli-Barometer gehören. Was ganz offensichtlich fehlt, ist aber die umfassende und systematische Nutzung des Effekts. Die nächste Stufe war zunächst nicht eine Recherche, sondern die Übertragung der beschriebenen Laboratoriumsvorrichtung auf eine im technischen Maßstab funktionierende Nutsche, die mithilfe des ablaufenden Filtrats, d. h. des Endprodukts, ihr Arbeitsvakuum selbst erzeugt. Da nun das Arbeitsvakuum das Mittel zur beschleunigten Erzeugung des gewünschten Produktes (hier: des Klarfiltrats) ist, schien sich abzuzeichnen, dass wir es hier mit einem geradezu idealen „Von Selbst“-Beispiel zu tun haben könnten. Diese Erwartung hat sich erfüllt. 326 7 Von der Erfindung zur geschützten Erfindung <?page no="327"?> Abb. 61 Verfahren u. Vorrichtung zur Filtration unter autogenem Vakuum (Zobel et al. 1979/ 1980) 1 Filtertrübe 2 Minimum-Maximum-Sonde 3 Entlüftungsstutzen 4 Vakuum-Messstutzen 5 Filtratraum mit Stützrippen unterhalb des Siebbodens 6 Filtertuchrahmen 7 Filtratab‐ laufleitung 8 Spülstutzen. Wir entwickelten einen solchen Apparat (Abb. 61). Die Vorrichtung erzeugt, einen ausreichenden Niveauunterschied vorausgesetzt, ihr Arbeitsvakuum selbst. Vakuumpumpen sind überflüssig. Je nach Widerstand des Filterku‐ chens werden Unterdruckwerte von etwa 670 bis 970 hPa (entsprechend 500 bis 730 mm Hg), entsprechend einem absoluten Gasdruck von etwa 260 bis 30 mm Hg im System, erreicht. Die Vorrichtung arbeitet bis zum Versetzen der Filterfläche vollautomatisch („Von Selbst“-Lösung). Bei erheblichem Feststoffgehalt der Trübe stellen sich die für eine passable Filtrationsgeschwindigkeit benötigten hohen Unterdruckwerte automatisch ein; bei geringeren Feststoffgehalten werden entsprechend höhere Filtrati‐ onsgeschwindigkeiten trotz geringeren Arbeitsvakuums erreicht (Prinzip der Von-Selbst-Anpassung). Klare Filtrate sind, besonders nach Zugabe von ein wenig Filterhilfsmittel zur Trübe, stets gewährleistet (Zobel, Jochen u. Rust 1979/ 1980). 327 7.2 Was heißt „schutzfähig“? Haupt- und Hilfskriterien <?page no="328"?> Wir haben die Vorrichtung über mehrere Jahre im 2-m 3 -Maßstab er‐ folgreich betrieben. Filtriert wurden z. B. Mutterlaugen der Trinatrium‐ phos-phatproduktion sowie aufkonzentrierte Hypophosphitlösungen. Be‐ dienungs- und Wartungsaufwand sind gering. Die Vorrichtung braucht nicht beaufsichtigt zu werden, da ihr erneutes Anfahren, falls sie versehent‐ lich einmal leer gelaufen ist, nur wenige Minuten beansprucht. Interessanterweise fanden sich nicht nur bei Gesprächen mit Fachkolle‐ gen, sondern vereinzelt auch in der Literatur, Vorurteile gegen die Realisier‐ barkeit der an sich naheliegenden Idee. So schlugen entsprechende Versuche im Wasserwerk der Stadt Harrisburg, ausgeführt an einem Trinkwasser‐ schnellfilter, offensichtlich fehl (Ziegler 1919). Wir hatten allerdings, und dies zeigte sich erst nach Erteilung des Patentes, nicht sorgfältig genug recherchiert. Tatsächlich erwies sich die Lösung schließlich als durchaus nicht neu. In der Diskussion zu einem erfindungsmethodischen Vortrag wies mich Heidrich (1986) darauf hin, dass annähernd vergleichbare Apparate („Läuterbottiche“) in Brauereien älterer Bauart durchaus üblich waren. Der Ablauf erfolgte zwar nicht über ein ausschließlich senkrechtes Rohr, sondern über einen so genannten Schwa‐ nenhals; dieses Detail ist aber für die Tatsache, dass der von uns angemeldete Apparat im Prinzip eben nicht neu ist, sekundär. Das Beispiel ist insbeson‐ dere in dieser Hinsicht interessant. Sorgfältiges Recherchieren in der älteren Literatur wäre zweifellos erforderlich gewesen; eine reine Patentrecherche genügt in derartigen Fällen offensichtlich nicht. Beim besprochenen Beispiel lag immerhin der Verdacht nahe, dass es sich möglicherweise um alte Technik handeln könnte. Typisches Einsatzfeld für alte (Filtrations-)Technik ist aber z. B. das Brauereiwesen, wie auch ohne nähere Fachkenntnis leicht vorstellbar: Seit Jahrtausenden wird gebraut, und trübes Bier war wohl niemals beliebt. Ferner zeigt das Beispiel, dass ein erteiltes Patent durchaus kein zwingender Beweis für den Neuheitswert einer Sache ist. Was die Erfinder übersehen hatten, fiel auch dem Prüfer nicht auf - ein Fall, der in der Praxis nicht eben selten vorkommt. Sehen wir uns nun das zweite Hauptkriterium für eine erfolgreiche An‐ meldung an, das Vorliegen einer erfinderischen Tätigkeit. Während Neuheit (s. o.) sehr klar definiert werden kann, ist das Vorliegen erfinderischer Tätigkeit, die im Idealfall zu einer Lösung mit einer gewissen „Erfindungs‐ höhe“ zu führen hat, zwischen Anmelder und Patentprüfer erfahrungsgemäß 328 7 Von der Erfindung zur geschützten Erfindung <?page no="329"?> immer wieder strittig. Das Patentamt hat sich nun so geholfen, dass es mit sieben Hilfskriterien operiert. Sie werden als geeignet angesehen, die geforderte Erfindungshöhe gegebenen Falles zu bestätigen. Sehen wir uns diese wichtigen Kriterien näher an: I. Ist die Lösung überraschend? Leider ist auch dieses Kriterium nicht unbedingt objektiv. Vorteilhaft wäre, wenn sich nicht nur der vom vermeintlichen Wert seiner Lösung berauschte Anmelder, sondern auch der Patentprüfer und/ oder der potenzielle Lizenz‐ nehmer überrascht zeigten. Immerhin ist es erfahrungsgemäß stets vorteil‐ haft, im Text der Anmeldung wenigstens zu behaupten: „Überraschend wurde gefunden, dass …“. II. Die Lösung liegt außerhalb des Suchfeldes des Durchschnitts-Fachman‐ nes Der Durchschnittsfachmann (im Gegensatz zum seltenen - zusätzlich auch in Detailfragen beschlagenen - Universalisten) operiert gewöhnlich nur mit den Wissenselementen, die er aus seinem Fachgebiet kennt. Er ist also kaum in der Lage, Analogien zu seinem Problem zu finden, die in weit entfernten Fachgebieten existieren, geschweige denn, sie als tauglich für die von ihm angestrebte Problemlösung zu erkennen. Deshalb ist dieses Hilfskriterium für den Prüfer recht nützlich: Je sachferner die vom Erfinder für die Problemlösung eingesetzte Analogie, desto klarer ist, dass eine schutzwürdige erfinderische Leistung vorliegt. III. Wurde eine bisher unbekannte Wirkung einer an sich bekannten Vor‐ richtung aufgedeckt? Chemikern und vielen Nichtchemikern ist das Prinzip der Laboratoriums‐ waschflasche geläufig. Ein Gas „blubbert“ durch eine Flüssigkeitsschicht, wobei ein glatt abgeschnittenes oder mit einer Fritte versehenes Tauchrohr Verwendung findet. Die vorgelegte Flüssigkeit bewegt sich im Rhythmus der sie passierenden Gasblasen auf und ab. Die Waschflasche wird (bis auf Eintritts- und Austritts‐ rohr) gasdicht betrieben, d. h., die Zwangsführung des gesamten Gases durch die Flüssigkeit ist gewährleistet. Eine solche Vorrichtung dient - je nach 329 7.2 Was heißt „schutzfähig“? Haupt- und Hilfskriterien <?page no="330"?> vorgelegter Flüssigkeit - z. B. zum Befeuchten oder zum Trocknen von Gasen. Auch lässt sich über die Zahl der Blasen pro Zeiteinheit eine ausreichend genaue Gasmengenmessung durchführen („Blasenzähler“). Ferner lassen sich vom Gasstrom mitgerissene Feststoffe (Stäube) abtrennen. Schließlich kann man wasserlösliche Gase bequem aus Gasgemischen auswaschen. Eine wichtige Anwendung ist auch der Einsatz einer solchen Wasch‐ flasche - im technischen Maßstab meist als „Wasservorlage“ bezeichnet -als Gassperre. Gelingt es, den Gasdruck stets so hochzuhalten, dass das kontinuierliche „Durchblubbern“ gewährleistet ist, haben wir es mit einer verlässlichen Sperre gegen die atmosphärische Luft zu tun. Dies ist wichtig, wenn eine unter Gasbildung verlaufende Reaktion abgesichert werden soll, bei der ein in Kontakt mit Luftsauerstoff explosibles Gas entsteht. Man leitet dann das Gas, nachdem es die Wasservorlage passiert hat, per Rohrleitung direkt zur weiteren Verwertung. In unserem Falle wurden in einem Rührwerksreaktor die Stoffe A und B miteinander zur Reaktion gebracht. Wegen der Explosibilität des bei dieser Reaktion gebildeten Gases C beim Kontakt mit Luftsauerstoff musste der Reaktor unter Schutzgas (Stickstoff) gefahren werden, wobei das während der Reaktion entstehende Gas unter Eigendruck abgeleitet und alsdann kon‐ trolliert verbrannt werden sollte. Im Labormaßstab arbeitete ich mit einer gewöhnlichen Waschflasche, im Technikumsmaßstab mit einer prinzipiell ähnlich aufgebauten stählernen Wasservorlage. Nun ging es an die Übertra‐ gung des 200 l-Technikumsreaktors in den 20 m 3 -Maßstab bei entsprechend vergrößerter Wasservorlage. Ein zuvor (im Labor- und Technikumsmaßstab) beobachtetes Problem war die gelegentlich auftretende Schaumbildung im Reaktor. Es war nun durchaus nicht klar, ob uns dieses Phänomen im 20 m 3 -Maßstab verstärkt oder abgeschwächt begegnen werde. Bei extrem starkem Schäumen war zu befürchten, dass der Schaum in die Wasservorlage und schließlich in das Gasrohr bis zur Weiterverarbeitung gelangen könnte. Bekannt ist, dass man Flüssigkeiten durch Zugabe oberflächenaktiver Mittel entschäumen kann. Diese Möglichkeit schied aber aus, da sich im vorliegenden Falle (es handelte sich um die Reaktion zwischen Phosphor‐ schlamm und einer Natronlauge-Calciumhydroxid-Suspension) derartige Mittel zersetzen, bevor sie ihre Wirkung entfalten können. In anderen Fällen führt die Anwendung eines Spezialrührers, der den Schaum trombenartig nach unten zieht, zum Ziel. Dieses Verfahren kam in unserem Falle jedoch nicht infrage. Bekannt ist ferner, dass man Schaumbla‐ sen durch plötzliches Entspannen des Gasraumes oberhalb der Schaumschicht 330 7 Von der Erfindung zur geschützten Erfindung <?page no="331"?> zum Zerplatzen bringen kann. Es gibt dafür beispielsweise die Möglichkeit, den Schaum in einem Entspannungsraum durch plötzliches Ändern der Druckverhältnisse zu zerstören. Auch das pulsierende Beeinflussen der Druckverhältnisse durch Anwenden von äußerem Zwang (intermittierendes Absperren eines Druckbzw. Vakuumstutzens, wechselnder relativer Über‐ druck und relativer Unterdruck mithilfe pulsierender Zugabe eines inerten Gases von außen) ist für den gleichen Zweck bereits vorgeschlagen worden. Die letztgenannten Varianten sind vergleichsweise kompliziert und wurden deshalb nicht erprobt. Jedoch hatte ich die Hoffnung, dass der Grundgedanke der pulsierenden Fahrweise in noch einfacherer Weise zum Ziel führen könnte. Ich sagte mir, dass der Durchtritt des Gases durch die Wasserschicht in der Wasservorlage nicht gleichmäßig, sondern stets pulsierend verläuft. Manchmal muss man auch Glück haben: Ein Blick durch das mit einer Silikatg‐ lasscheibe verschlossene Mannloch zeigte tatsächlich, dass die Schaumschicht im Reaktor pulsierte, sichtlich im Rhythmus der die Wasservorlage passieren‐ den Gasblasen, und dabei nie über ein tolerables Maß anstieg. Abb. 62 zeigt den Reaktor samt Wasservorlage und Sicherheitsschleife. Überlegen wir uns nun, was in physikalischer Hinsicht eigentlich pas‐ siert. Bisher wurde offenbar noch nie darüber nachgedacht, dass die - in allen oben genannten Anwendungsfällen - auf- und abschaukelnde Flüssigkeitssäule im eintretenden Gasstrom Phasen relativer Kompression, abwechselnd mit Phasen relativer Dekompression, verursacht. Ehe eine Blase die Wasservorlage passieren kann, muss die Flüssigkeit im Tauchrohr nach unten gedrückt werden, was einen Druckanstieg im eintretenden Gas bewirkt. Tritt die „portionierte“ Gasmenge dann als Blase aus, wippt die Flüssigkeitssäule zurück, bis die nächste Blase entsteht. Der aus diesem Grunde im eintretenden Gasstrom pulsierende Druck lässt sich, wie ich feststellen konnte, an einem seitlich angeschlossenen U-Rohr-Manometer direkt beobachten. Nun ist dieser Sachverhalt, so könnte man einwenden, zwar im Zusammen‐ hang mit der Funktion einer Waschflasche vielleicht bisher nicht beachtet worden, jedoch ist er, falls man die bisherigen Anwendungsfälle betrachtet, funktionell bedeutungslos. Hier aber hat unser nunmehr durch TRIZ-geschul‐ tes Denken einzusetzen: Was heißt „funktionell bedeutungslos“? In unserem Falle bedeutet es nur, dass dieser Sachverhalt zwar für die bisher bekannten Anwendungen unwichtig sein mag, im Übrigen jedoch zum Weiterdenken anzuregen hat: Wo kann ich das anwenden? Handelt es sich möglicherweise um ein weiteres - bezogen auf den bisherigen Kenntnisstand neues - Einsatzgebiet 331 7.2 Was heißt „schutzfähig“? Haupt- und Hilfskriterien <?page no="332"?> für Wasservorlagen? Wenn, wie die Literatur angibt, Schäume durch Druckstöße zu beeinflussen sind, hat man es hier am Ende sogar mit einer schutzfähigen Lösung nach dem „Von Selbst“-Prinzip zu tun? Typisch für dieses Beispiel ist, dass es sich um eine „im Nachhinein“ sehr einfache Lösung handelt. Als technisch günstig und im besonderen Maße nützlich ist zu werten, dass Frequenz und Intensität der Druckstöße einerseits durch die Reaktionsgeschwindigkeit, andererseits durch die Höhe des Flüssigkeitsspiegels in der Wasservorlage zu beeinflussen sind. Bezüg‐ lich der Frequenz handelt es sich sogar um ein sich selbst regulierendes System, denn mit steigender Reaktionsgeschwindigkeit, hier verbunden mit verstärkter Gasentwicklung, erhöht sich die Frequenz der Druckstöße automatisch. Dies kommt wiederum den praktischen Erfordernissen bzw. der verfahrens‐ technisch gegebenen Notwendigkeit, die Schaumentwicklung gerade dann besonders stark bremsen zu müssen, entgegen. Je heftiger die Reaktion verläuft, und je mehr Schaum sich demzufolge pro Zeiteinheit bildet, desto intensiver wird durch die in der Flüssigkeitsvorlage immer heftiger werden‐ den Druckstöße automatisch gegengesteuert. Frequenz und Amplitude der Druckstöße lassen sich über ein kommunizierendes Standglas (Abb. 62: links neben Pos. 8) beobachten und zum Maß der Fahrweise machen. Auch die Dosierung der Reaktionskomponenten lässt sich so automatisch steuern (Zobel, Pat. 1976/ 1980). Natürlich löst man mit einer solchen Anmeldung beim Patentprüfer nicht gerade Jubel und Begeisterung aus, erscheint doch die der Waschflasche direkt „nachempfundene“ Lösung als dermaßen trivial, dass weder der Laie noch der Fachmann zunächst so recht einsehen wollen, worin der Neuheits‐ wert der Sache eigentlich bestehen soll. So war es auch im Falle dieses Patentes. Erst während der Anhörung, die dem Erfinder die Möglichkeit gibt, sich im Patentamt mündlich zur Sache zu äußern, konnte Klarheit geschaffen werden. Insbesondere konnte ich darlegen, dass dem Erfindungsgedanken ein zwar im Nachhinein klarer, bislang aber noch nicht beobachteter bzw. noch nicht in Betracht gezogener Physikalischer Effekt zugrunde liegt, was bedeutet, dass eine eigene - für sich nicht schutzfähige (Mini)-Entdeckung - zur Basis der Erfindung gemacht wurde. 332 7 Von der Erfindung zur geschützten Erfindung <?page no="333"?> 9 10 8 4 5 3 6 2 1 7 Abb. 62 Verfahren zur Verminderung bzw. Vermeidung der Schaumbildung bei der technischen Durchführung chemischer Reaktionen (Zobel, Pat. 1976/ 1980) 1 Dampfmantel 2 Rührwerksreaktor 3 Spülstutzen 4,5 Stutzen für die Zugabe der Re‐ aktionskomponenten 6 Stickstoff-Stutzen 7 Ablassstutzen für die ausreagierte Masse 8 Wasservorlage mit Standglas 9 Phosphin-Wasserstoff-Gasgemisch zur Verbrennung in der Phosphorsäureanlage 10 Sicherheitsschleife mit Standglas 333 7.2 Was heißt „schutzfähig“? Haupt- und Hilfskriterien <?page no="334"?> Der beschriebene Apparat (d. h. die gleichsam „hypertrophierte“ Waschfla‐ sche) ist ohne Zweifel banal. Nicht banal hingegen ist die Nutzung im oben erläuterten Zusammenhang. Sehr wahrscheinlich hatte bisher tatsächlich niemand an die oben beschriebenen eingangsseitigen Druckverhältnisse in einer Waschflasche gedacht, vor allem nicht im Zusammenhang mit einer bestimmten technischen Nutzung. Jedenfalls existierte zum Zeitpunkt der Anmeldung keine Veröffentlichung, die eine getaucht betriebene Flüssigkeitsvorlage für einen derartigen Zweck zum Gegenstand gehabt bzw. klar beschrieben hätte. Beim prinzipiell ähnlich funktionierenden Gärröhrchen sind offenbar der‐ artige Beobachtungen noch nicht gemacht worden, wohl bedingt durch die sehr kleinen Druckdifferenzen und die im Gärballon entstehenden feinbla‐ sigen, oft zähen Schäume. Im Ernstfall passiert der Schaum, wie passionierte Obstweinfans wohl bestätigen können, das Gärröhrchen zur Freude der Fruchtfliegen fast ungehindert. Das Gärröhrchen war es jedenfalls nicht, welches mich auf die Idee mit der Wasservorlage als einer industriell tauglichen Schaumbremsvorrichtung brachte. Dass mir die Sache erst im industriellen Maßstab aufgefallen war, lag wohl an den im Labormaßstab ebenfalls viel zu geringen Druckdifferenzen. In der Patentspruchpraxis wird auf den hier diskutierten Sachverhalt im Sinne des Hilfskriteriums 7.2.3 ausdrücklich Bezug genommen: Die Benutzung einer bekannten Vorrichtung wird dann als erfinderisch angesehen, wenn sie ohne die Aufdeckung einer unbekannten Wirkung dieser bekannten Vorrichtung unterblieben wäre. Wir haben es demnach tatsächlich mit der erfinderischen Umsetzung einer „Mini-Entdeckung“, das heißt, eines zwei‐ fellos schon immer existierenden, aber bisher noch nicht be(ob)achteten Ursache-Wirkungs-Zusammenhanges zu tun. Beim Formulieren des Patent‐ anspruches muss in solchen Fällen berücksichtigt werden, dass der benutzte Apparat, weil sattsam bekannt, nicht mehr zum Gegenstand der Anmeldung gemacht werden kann. Infrage kommt deshalb nur ein Verfahrenspatent. Entsprechend lautet Im Falle unseres Beispiels der Patentanspruch: „Verfahren zur Verminderung bzw. Vermeidung der Schaumbildung bei unter Gasentwicklung verlaufenden Reaktionen durch intervallmäßige Druckänderung, dadurch gekennzeichnet, dass die intervallmäßige Druckänderung in Abhängigkeit von der Reaktionsgeschwindigkeit durch den über eine Flüssigkeitsvorlage autogen regulierten stoßweisen Gasaustritt erfolgt, wobei die Druckdifferenz über das hori‐ 334 7 Von der Erfindung zur geschützten Erfindung <?page no="335"?> zontal glatt abgeschnittene Gaseintrittsrohr sowie über die vorgelegte Flüssigkeits‐ menge gesteuert wird.“ (Zobel, Pat. 1976/ 1980) IV. Wurden besondere technische Schwierigkeiten überwunden? Im Gegensatz zum oben ausführlich beschriebenen Hilfskriterium Nr. 7.2.3 ist dieses Hilfskriterium nicht frei von subjektiven Elementen. Entsprechend oft kommt es zu muntereren Diskussionen zwischen dem Patentprüfer und dem Erfinder. Strittig ist dann, ob tatsächlich gar so schreckliche Schwierigkeiten zu überwinden waren, oder ob es sich eher um verbal geschickt aufgeblasene Pseudo-Schwierigkeiten handelt. Folglich ist der Erfinder gut beraten, wenn er ganz nüchtern unter Einsatz möglichst seriöser Literaturquellen argumentiert. V. Gab es ein über längere Zeit von der Fachwelt angemeldetes, aber dennoch bisher nicht befriedigtes Bedürfnis? Auch dieses Hilfskriterium sollte vom Erfinder nicht unvorbereitet in die Debatte gebracht werden. Er sollte vielmehr durch entsprechende Litera‐ turstellen unmissverständlich belegen können, dass seit längerer Zeit ein entsprechendes Bedürfnis tatsächlich bestand. Vorteilhaft ist in diesem Zusammenhang auch, die - bisher vergeblichen - Versuche aufzuführen, das technische Bedürfnis zu befriedigen. VI. Lag „Blindheit der Fachwelt“ vor? Falls der Erfinder im Streitfalle dieses Kriterium einsetzen will, sollte er sich hüten, dem Patentprüfer gegenüber Termini wie „logisch“, „für den Fachmann eigentlich klar“ oder gar „naheliegend“ zu gebrauchen. Beachtet er das nicht, so ist es um seine Chancen geschehen. Dann wird ihm bezüglich seiner Anmeldung „fachmännisches Handeln“ vorgehalten. Sinnvoll ist es, indirekte Belege beizubringen. Beispielsweise ließen sich naheliegende Analogien oder gar unmittelbar analoge Problemlösungen zitieren, die dem Patentprüfer zeigen, dass die Fachwelt bei mehr Aufmerksamkeit durchaus hätte handeln können. 335 7.2 Was heißt „schutzfähig“? Haupt- und Hilfskriterien <?page no="336"?> VII. Gab es gegen die angegebene Lösung ein Vorurteil der Fachwelt? Das Vorliegen eines solchen Vorurteils darf nicht einfach behauptet, es muss belegt werden. Optimal gelingt dies, wenn in der seriösen Fachliteratur möglichst eindeutige Formulierungen zu finden sind, etwa der Art: „Aus dem und dem Grunde ist es völlig unmöglich, dieses Ziel auf genanntem Wege jemals erreichen zu können“. Wichtig ist auch die Art der Quelle: Anerkannte Monografien sind stets besser als solche Fachjournale, in denen gelegentlich auch Ergebnisse publiziert werden, die nicht oder noch nicht die allgemeine Anerkennung der wissenschaftlichen Community gefunden haben. Diese sieben Hilfskriterien (von den Juristen auch „Beweiszeichen“ ge‐ nannt) haben den Vorteil, dass sie keineswegs alle gemeinsam zutreffen müssen. Es genügt das Vorliegen weniger Kriterien, um den Patentschutz zu ermöglichen. Kommt es hart auf hart, genügt auch ein Kriterium. Wegen des „Gummi-Charakters“ mancher Kriterien sollte der Beleg dann aber besonders überzeugend, möglichst unstrittig sein. Während das Hauptkriterium „Erfinderische Leistung“ zur Verifizierung obiger Beweiszeichen bedarf, ist das letzte der drei Hauptkriterien, die gewerbliche Anwendbarkeit, fast selbsterklärend: Der Gegenstand muss auf irgendeinem gewerblichen Gebiet, die Landwirtschaft eingeschlossen, herstell- oder benutzbar sein. Um die Kommerzialisierung des Leidens von Mensch und Tier zu vermeiden, sind chirurgische und therapeutische sowie Diagnose-Verfahren jedoch nicht patentierbar. 7.3 Die Rolle des Standes der Technik Die Hauptquelle für die Ermittlung des Standes der Technik auf dem jeweils bearbeiteten Gebiet ist nach wie vor der Patentfundus. Allein die Zahl der Deutschen Patentschriften bewegt sich inzwischen im Millionenbereich. Hinzu kommen die anderen nationalen Patente, insbesondere die der füh‐ renden Industrieländer, sowie die Europa- und die Weltpatente. Ich möchte mich jedoch, da es sich um eine Einführung handelt, hier nur mit den Deutschen Patentschriften befassen. Um festzustellen, ob das, was man glaubt erfunden zu haben, überhaupt neu ist, benötigt man einen Leitfaden. Ein solcher Leitfaden ist, mit gewissen Einschränkungen, die Internationale Patentklassifikation (IPK). 336 7 Von der Erfindung zur geschützten Erfindung <?page no="337"?> Sie teilt das Gesamtgebiet der Technik in acht Sektionen ein: Täglicher Bedarf (A); Arbeitsverfahren, Transportieren (B); Chemie, Hüttenwesen (C); Textil, Papier (D); Bauwesen, Bergbau, Maschinenbau, Beleuchtung, Heizung, Waffen, Sprengen(F); Physik (G); Elektrotechnik (H). Innerhalb jeder Sektion finden wir einen hierarchischen Aufbau: Die Sektionen gliedern sich unter fortlaufend weiterer Detaillierung in Klassen, Unterklassen, Gruppen und Untergruppen. Diese Klassifikation hatte zunächst den Zeck, Schutzrechtsanmeldungen innerhalb der Patentämter den fachlich zuständigen Prüfungsstellen zur Bearbeitung zuzuweisen und den Prüfstoff anhand der auf den Schriften befindlichen Klassifikationssymbole den Prüfungsstellen zuzuteilen und die Dokumente dort übersichtlich abzulegen. Für unseren Zweck wichtig ist die Frage, ob ein derart verlockend anmutendes System nicht auch für die Patentrecherche einsetzbar ist. Unter Fachleuten wird dies heftig diskutiert, denn es gibt neben unbestrittenen Vorzügen des Systems für Recherchezwecke auch Mängel. Wichtige Pro- und Contra- Argumente sind nachfolgend zusammengestellt, wobei ich mich auf das instruktive Buch von Suhr (2000) stütze: Vorzüge der IPK gegenüber anderen Klassifikationen sind ihre starke De‐ taillierung, ihre internationale Standardisierung, ihre weite Verbreitung und der Umstand, dass man die Klassifikations-Symbole direkt auf der Patentschrift vorfindet. Die Funktion des Erfindungsgegenstandes steht im Vordergrund. Daneben wird, wenn auch nicht immer, der industrielle Sektor berücksichtigt, in dem der Erfindungsgegenstand Anwendung findet. Keine andere Klassifikation hat eine derartige Verbreitung gefunden. Die IPK wird von zahlreichen Patentämtern angewandt. Die Zahl der nach ihr klassifizierten Schutzrechtsschriften beträgt viele Millionen. Die IPK- Symbole werden zusammen mit den anderen Patentdaten von öffentlichen und kommerziellen Patentinformationsdiensten der Online-Recherche zu‐ gänglich gemacht. Leider stehen aber diesen gewichtigen Vorzügen ebenso gravierende Nachteile gegenüber. So lassen sich auf wichtigen Gebieten der Technik Erfindungen mit dem Funktionsprinzip nicht erschöpfend beschreiben, was dazu führt, dass wesentliche Erfindungsaspekte unberücksichtigt bleiben. In der Chemie kann die Beschreibung der Stoffklassen samt der Verfahren zu ihrer Herstellung nicht befriedigend geleistet werden. Es macht grund‐ sätzliche Schwierigkeiten, chemische Stoffbegriffe hierarchisch zu gliedern, 337 7.3 Die Rolle des Standes der Technik <?page no="338"?> zumal es in der Chemie auf die Erfassung einer Vielzahl struktureller und nichtstruktureller Begriffe und ihres Zusammenhanges ankommt. Nicht eben hilfreich ist, dass gerade die größten Patentämter die IPC nicht in ihrer Originalversion verwenden, sondern den Prüfstoff noch einmal selbst nach jeweils eigenen Maßstäben klassifizieren. Hinzu kommt, dass gemäß dem Straßburger Abkommen über die IPC alle fünf Jahre eine Revision vorgenommen wird. Während die IPC für Dokumentationszwecke nach wie vor von elemen‐ tarer Bedeutung ist, trifft dies in Anbetracht der oben dargelegten Nachteile für die heute üblichen Recherchen per Computer nicht zu. Sehen wir uns deshalb an, wie man online vorgehen kann. Depatisnet.de und/ oder recherche.dpma führen uns zu zwei Varianten der Neuheitsrecherche: dem Einsteigermodus und dem Expertenmodus. Unerfahrene sollten mit dem Einsteigermodus beginnen. Die Maske „Ein‐ steigerrecherche“ gestattet dann die Suche nach: Veröffentlichungsnum‐ mer; Titel; Anmelder / Inhaber / Erfinder; Veröffentlichungsdatum; Alle Klassifikationsfelder; Suche im Volltext. Vorteilhaft ist, dass man nicht alles ausfüllen muss, um die Recherche starten zu können. Wenn ich also beispielsweise weiß, dass auf dem mich interessierenden Gebiet Herr Stefan Przywalski erfinderisch tätig ist, genügt allein schon die Eintragung dieses Namens unter Anmelder / Inhaber / Erfinder, und es erscheinen Przywalskis sämtlichen Erfindungen. Natürlich kann es sein, dass der Mann auch auf anderen Gebieten erfinderisch sehr aktiv ist; dann habe ich eben auszuwählen. Schlechte Karten habe ich natürlich, wenn mein Erfinder Hans Müller oder Friedrich Lehmann heißt. Aber vielleicht nützt mir dann die Spalte „Titel“. Auch ist der Anmelder/ Inhaber sehr oft die Firma, in der der Erfinder angestellt ist, es sei denn, es handelt sich um einen freien Erfinder. Schwieriger - dafür aber auch aussagestärker - ist die Expertenrecherche. Sie bietet unter anderem die Möglichkeit einer Volltextsuche. Wichtig ist dann, die richtigen Suchwörter (Schlüsselbegriffe, „keywords“) zu verwen‐ den, um relevante konkurrierende Schriften ausfindig machen zu können. Im Netz findet sich eine ausführliche Anleitung zur sachgerechten Ausfüh‐ rung der Expertenrecherche, auf die ich hier nicht näher eingehen will. Diese Art der Recherche erfordert Übung, so dass letztlich nur das learning by doing empfohlen werden kann. Die Recherchen führen mich dann zu den mein Arbeitsgebiet berühren‐ den, für mich möglicherweise neuheitsschädlichen Patentschriften. Wie 338 7 Von der Erfindung zur geschützten Erfindung <?page no="339"?> weiter oben bereits erwähnt, genügt die alleinige Berücksichtigung dieser Schriften nicht unbedingt, die Neuheit meiner Anmeldung zu belegen. Stets zu berücksichtigen sind auch die auf dem betreffenden Gebiet erschienenen wissenschaftlichen und wissenschaftlich-technischen Veröffentlichungen, denn nicht jeder Autor meldet seine Ergebnisse zum Patent an. Sogar allgemeine technische Schriften, wie beispielsweise Messeprospekte, kön‐ nen - sofern ungeschickt formuliert - neuheitsschädlich sein. Dies ist insbesondere dann der Fall, wenn der Aussteller übersehen hat, dass Details des von ihm ausgestellten und beworbenen Produktes oder Verfahrens durchaus schutzfähig sind. Grundsätzlich gilt, dass jede Art öffentlich gemachten technischen Wis‐ sens - nicht nur das schutzrechtlich gesicherte Wissen - neuheitsschädlich sein kann. Dies gilt auch, wie bereits erwähnt, für die offenkundige Vorbe‐ nutzung. Dann ist noch nicht einmal ein schriftlicher Beleg zum Sachverhalt erforderlich. Wenn ich nun all dies bei der Formulierung meiner Patentschrift (s. Kap. 7.4) berücksichtigt habe, kann ich mit einer gewissen Wahrscheinlichkeit annehmen, dass sich eine Anmeldung beim Patentamt lohnt. Nach Eingang meiner Anmeldung im Patentamt sind dann zunächst folgende Stufen zu durchlaufen: ■ Der Anmeldung werden die ihrem technischen Inhalt entsprechenden Symbole der Internationalen Patentklassifikation zugeordnet. ■ Die Unterlagen werden auf die Einhaltung formaler Erfordernisse an eine Patentanmeldung geprüft (Offensichtlichkeitsprüfung). ■ Übersteht die Anmeldung die Offensichtlichkeitsprüfung, so wird achtzehn Monate nach dem Einreichungsbzw. Prioritätsdatum die Deutsche Offenlegungsschrift (DOS) veröffentlicht. Damit erhält die Öffentlichkeit erstmalig die Gelegenheit, detailliert von der neuen Erfindung Kenntnis zu nehmen. Was die Einschätzung des Standes der Technik zu diesem Zeitpunkt (und damit die Erteilungschancen) betrifft, schreibt Suhr (2000, S. 39): „Zum Zeitpunkt der Offenlegung hat die Anmeldung die Prüfung auf Patentierbar‐ keit noch nicht durchlaufen. Der Leser kann sich mittels der zitierten Literatur einen ersten Eindruck davon verschaffen, ob die Anmeldung zum Patent führen und welchen Schutzumfang dies haben könnte. Wurde in der Recherche kein naheliegen‐ der Stand der Technik ermittelt, so wird das mitgeteilt. Freilich kann hierin keine 339 7.3 Die Rolle des Standes der Technik <?page no="340"?> Garantie für die Erteilung eines Patentes auf die Anmeldung gesehen werden. Es ist durchaus möglich, dass sich im Prüfungsverfahren doch noch einschlägige Literatur findet, die die Neuheit oder die Erfindungshöhe des Anmeldungsgegensandes in Frage stellt. Nicht selten kann auch ein Wettbewerber im Einspruchsverfahren aus eigener Kenntnis oder mit Hilfe eines Dokumentes Information beibringen, über die das Patentamt nicht verfügte und die die Patenterteilung vereitelt“. Dritte können erst nach Erteilung des Patentes an der Benutzung der Erfindung gehindert werden. Dazu muss der Gegenstand der Anmeldung auf Patentfähigkeit geprüft worden sein. Das Patentamt prüft aber nur, wenn ein Prüfungsantrag gestellt und die Prüfungsgebühr bezahlt ist. Der Prüfungsantrag muss innerhalb von sieben Jahren, gerechnet vom Tage der Anmeldung, gestellt werden. Diese in Deutschland praktizierte so genannte verschobene Prüfung hat den Sinn, dem Anmelder Zeit zu geben, damit er beurteilen kann, ob sich für ihn die weitere Verfolgung der Anmeldung überhaupt noch lohnt (Suhr 2000). Das Patentamt (heute: Deutsches Patent- und Markenamt) recherchiert in seinem Prüfstoff, garantiert jedoch nicht die Vollständigkeit des ermittelten Standes der Technik. Das Amt vertraut darauf, dass die Wettbewerber des Patentanmelders noch Relevantes zur Sache finden können, und es dann - gegebenen Falles - im Einspruchs- oder Nichtigkeitsverfahren vorbringen werden. Wir sehen also auch hier, wie subjektiv das Ganze sein kann, und wie wichtig es deshalb für den Anmelder ist, rechtzeitig bereits selbst mit Sorgfalt recherchiert zu haben. Genügt nach Auffassung der Prüfungsstelle des Patentamtes die Anmeldung den Erfordernissen des Patentgesetzes, so beschließt die Prüfungsstelle die Erteilung des Patentes. Die Gültigkeitsdauer des Patentes beträgt 20 Jahre. Danach genießt die im Patent offenbarte neue technische Lehre keinen Schutz mehr; sie geht in den allgemeinen Stand der Technik ein, und ist nun für mich und andere bei der Beurteilung weiterer (möglicherweise schutzfähiger) Erfindungen uneingeschränkt neuheitsschädlich. 340 7 Von der Erfindung zur geschützten Erfindung <?page no="341"?> 7.4 Das Formulieren der Patentschrift - leichter als gedacht Anfängern fällt das Formulieren ihrer Patentschrift oftmals recht schwer. Um die Hemmschwelle zu senken und zu zeigen, dass es dabei durchaus mit rechten Dingen zugeht, insbesondere, dass von den Routiniers auch nur mit Wasser gekocht wird, habe ich 1976 eine Parodie „Über die Abfassung von Patentschriften“ verfasst. Ziel war es, dem Anfänger mit Hilfe eines nicht gar so ernst zu nehmenden Beispiels zu zeigen, dass die Sache erlernbar ist, und dass auch auf diesem Gebiet - gerade auf diesem Gebiet! - Muster außerordentlich hilfreich sind. Patentdeutsch, auch als „Patent-Chinesisch“ (in Analogie zum „Partei- Chinesischen“) bezeichnet, dient überwiegend der Verschleierung dessen, was man zu beschreiben vorgibt. Die Verschleierung darf aber nicht zu weit getrieben werden, sonst bemängelt der Patentprüfer, die erfinderische Lehre sei vom Durchschnittsfachmann nicht nacharbeitbar. Ich bringe den damals publizierten Text hier wörtlich. Die Form hat sich, von Kleinigkeiten abgesehen, bis heute nicht geändert. So werden Zwi‐ schenüberschriften nicht mehr verwendet. Es dürfte aber nützlich sein, sie gewissermaßen „im Hinterkopf “ zu behalten, damit ein schlüssiger und nachvollziehbarer Aufbau der Schrift gewährleistet ist. Hier folgt nun der - im Grunde noch heute aktuelle - Originaltext (Zobel 1976): „Es gibt ein Spezialgebiet, das von vielen vor allem deshalb gemieden wird, weil es - völlig zu Unrecht - für ohnehin nicht erlernbar gilt, und ihm auch heute noch der Ruf des Besonderen, Einmaligen, Schwierigen und Exklusiven zu eigen ist. Kenntnisreiche und verdienstvolle Männer - allen voran Altschuller und Gilde - haben sich um den Abbau dieser Vorurteile bemüht. Der Erfolg ihrer Anstrengungen blieb jedoch auf einen vergleichsweise engen Kreis von Interessenten beschränkt, die aus eigenem Antrieb fast so weit waren, ihre erste Patentanmeldung zu formulieren. Versuchen wir deshalb, die Verfahrensweise beim Abfassen von Patent‐ schriften systematisch des Zaubers zu entkleiden, der noch immer breite Kreise von der aktiven Beschäftigung mit dem Patentwesen abhält. Aller‐ dings sei allzu eifrigen Interessenten vorbeugend gesagt, dass goldene Berge auch auf diesem Sektor nur in vergleichsweise erheblicher Entfernung zu gleißen pflegen. 341 7.4 Das Formulieren der Patentschrift - leichter als gedacht <?page no="342"?> Eine Patentanmeldung ist stets abschnittsweise zu gliedern; die Gliede‐ rungspunkte sind mehr oder minder starr vorgegeben und können als solche kaum modifiziert werden: ■ Titel, ■ Einleitung, ■ Bericht zum Stand der Technik, ■ Kritik am Stand der Technik, ■ Zweck der Erfindung, ■ Technische Aufgabe, welche durch die Erfindung gelöst werden soll, ■ Technische Mittel der vorgelegten Erfindung, ■ Technische und technisch-ökonomische Auswirkungen, ■ Bezugsbeispiel, ■ Ausführungsbeispiel, ■ Patentanspruch. Wir behandeln nun anhand eines zum Zwecke der Verdeutlichung systema‐ tisch ausgewalzten und mit frei erfundenen Zusätzen reichlich gespickten Gildeschen Beispiels („Verfahren zum Verscheuchen von Erd- oder Regen‐ würmern an die Oberfläche von Zuchtbeeten“) die der Abfassung einer Patentschrift zugrunde liegenden formalen Prinzipien. Ob man sich nach Erlernen ebendieser Prinzipien der Herstellung von Feuerwerkskörpern, Mehrzwecktaschenmessern, Rekuperatoren, Suppenwürfeln, Lasten-Heli‐ coptern, Büstenhaltern oder Fußbodenpflegemitteln zuzuwenden gedenkt, ist von vergleichsweise zweitrangiger Bedeutung, da die erläuterten Prinzi‐ pien durchgängig gültig sind, und man sich in jedem beliebigen Falle unter Verwendung dieser Richtsätze getrost an die Formulierung dessen begeben kann, was man jeweils für neu hält bzw. der erfahrungsgemäß nur bedingt staunenden Mitwelt als neu einzureden gedenkt. Unmittelbar im Anschluss an den zur Illustration stark modifizierten Text unseres Beispiels werden wir im Folgenden diese allgemein gültigen Prinzipien abschnittsweise kursiv kommentieren (in Klammern gesetzt). Titel: Verfahren zum Verscheuchen von Erd- oder Regenwürmern an die Oberfläche von Zuchtbeeten 342 7 Von der Erfindung zur geschützten Erfindung <?page no="343"?> (Der Erfinder dürfte ein insgesamt nicht sehr erfolgreicher Mann gewesen sein; dies ist daraus zu schließen, dass der Titel - wie an sich vorgeschrieben - kurz, einprägsam und beinahe verständlich wirkt). Einleitung: Vorliegende Erfindung betrifft ein Verfahren zum Aufscheuchen der im Inneren von Zuchtbeeten sich aufhaltenden Regenwürmer. Letztere sollen dazu veranlasst werden, an die Oberfläche der Zuchtbeete zu kriechen, von der sie alsdann bequem abgenommen und eingesammelt werden können. (Der Abfassung einer solchen Einleitung braucht keine besondere Aufmerk‐ samkeit gewidmet zu werden. Es wird mit anderen Worten - nur etwas ausführlicher - das gesagt, was im Titel bereits angeklungen ist. Exzessive Verwendung von Patentdeutsch ist hier noch nicht unbedingt am Platze; der Abschnitt ist als gemäßigte Stilübung aufzufassen). Bericht zum Stand der Technik: Die Anlage derartiger Zuchtbeete für Würmer ist an sich nicht neu. Auch ist durchaus bekannt, dass man die Würmer durch Bodenerschütterungen an die Erdoberfläche zu scheuchen vermag. Abgesehen von den natürlichen Möglichkeiten, wie insbesondere Blitzschlag, Erdrutsch, Hagelschauer oder Erdbeben, kommt zum Zwecke der Erschütterung des Erdbodens bekann‐ termaßen vor allem das kräftige Aufstampfen mit den Füßen in Frage, wobei insbesondere das Tragen genagelter Stiefel zusätzlichen Effekt bringt. Weiterhin ist bekannt, dass sich die gewünschte Wirkung auch mit Hilfe eines mittleren Bombardements erreichen lässt. Ferner wurde bereits vorgeschlagen, die akustischen Begleiterscheinun‐ gen erfahrungsgemäß besonders wurmwirksamer Erschütterungsformen über ein Magnetophon aufzunehmen und durch Abspielen der Konserve zu beliebiger Zeit diejenigen Wirkungen hervorzurufen, welche gewöhnlich nur durch die Erschütterung selbst hervorgerufen werden können. (Beginnend mit diesem Abschnitt ist von der zwingenden Notwendigkeit auszugehen, sich ganz allmählich auf das so genannte Patentdeutsch einschie‐ ßen zu müssen. Brillante Bandwurmsätze, Verschachtelungen im Stil Thomas Manns, Schnörkel, möglichst unübersichtlich angelegte Rückbezüge und Ein‐ schübe werden zur Existenzgrundlage. 343 7.4 Das Formulieren der Patentschrift - leichter als gedacht <?page no="344"?> Noch hat keine unmittelbare Kritik am Stand der Technik zu erfolgen; dies bleibt dem folgenden Abschnitt vorbehalten, wobei dort gewissermaßen konzentriert und mit voller Wucht gearbeitet werden muss. Jedoch sollte zweck‐ mäßig bereits durch die Wahl entsprechend abschätziger Formulierungen - wie z. B. ‚mittleres Bombardement‘ - die Kritikwürdigkeit, ja Unsinnigkeit der bisherigen technischen Lösungen anklingen. Dies hat jedoch unterschwellig zu geschehen, denn offenkundige Übertreibungen fallen später vielleicht sogar dem Patentprüfer auf). Kritik am Stand der Technik: Die bereits bekannten „natürlichen“ Methoden sind zwar unbestritten wirk‐ sam, in ihrer zeitlichen und örtlichen Verfügbarkeit jedoch nicht abzuschät‐ zen oder gar genau vorher zu planen, und deshalb für das Abernten der Zuchtbeete zu beliebigen - vom Menschen festzusetzenden - Zeitpunkten vergleichsweise unbrauchbar. Auch die Methode des Bombardements bringt bestimmte wirtschaftliche Nachteile mit sich. Abgesehen von der technisch bedingten Beschränkung auf größere Zuchtbeete (> 25 ha) und den ver‐ gleichsweise hohen Flugkosten lassen sich, auch bei geschickter Bemessung der Explosivkörper, Bombenkrater nicht immer vollständig vermeiden. Die bei der Entstehung derartiger Krater zwangsläufig in den oberen Bereichen der Zuchtbeete ablaufenden Umschichtungsprozesse gefährden den norma‐ len Ablauf der Lebensvorgänge, abgesehen von den gewissermaßen unbe‐ absichtigt verursachten Zerstörungen, auch insofern nicht unerheblich, als - wie neuere Untersuchungen zeigten - die Vermehrungsfreudigkeit der zum Zwecke des Aberntens gezüchteten Spezies durch derartige überwiegend schockähnliche Einwirkungen in einer dem Zuchtziel sowie der Wirtschaft‐ lichkeit des Verfahrens durchaus abträglichen Weise beeinflusst wird. Das an sich einfach auszuführende und deshalb im Wesentlichen auch heute noch allgemein geübte Aufstampfen mit den insbesondere nagelstie‐ felbewehrten Füßen ist ebenfalls nicht uneingeschränkt vorteilhaft. Vor allem häufen sich bei den berufsmäßigen Aufstampfern die Fälle von pes planus (Plattfuß), Achillessehnenzerrung und Metatarseusfraktur. Auch leiden die Angehörigen dieser Berufsgruppe in auffallendem Maße am so genannten Hackensporn, einer oft schmerzhaften, zumindest je‐ doch recht verdrießlichen Neubildung im Basisbereich des Hackens; die Aufnahme des morbus hackensporniensis in die Liste der anerkannten Berufskrankheiten steht für die professionellen Aufstampfer deshalb un‐ 344 7 Von der Erfindung zur geschützten Erfindung <?page no="345"?> mittelbar bevor. Schließlich kann noch die zunächst durchaus verlockend erscheinende Methode des Aufscheuchens der Würmer mit Hilfe derjenigen Klangeffekte, die den konventionell erzeugten Erschütterungen akustisch entsprechen, jedoch unter Verzicht auf die eigentlichen Erschütterungs‐ quellen selbst zur Anwendung gelangen, nicht rückhaltlos empfohlen werden, da inzwischen gefunden worden ist, dass sich die Würmer trotz vergleichsweise geringer nervaler Differenzierung erstaunlicherweise als insofern in unerwartetem Maße lernfähig erwiesen haben, dass von einigen begabteren Individuen die Trennung des Klangeffektes von der adäquaten Erschütterungsquelle selbst bereits nach kurzer Zeit bemerkt und somit die erwünschte Wirkung nicht im erwarteten Maße erreicht wird. Die Sachlage wird überdies dadurch kompliziert, dass sich das erwähnte Un‐ terscheidungsvermögen als vererbbar erwiesen hat, so dass auf dem Wege der Selektion spätestens die 4. Wurmgeneration auch bei Anwendung raffiniertester Spezial-Beschallung ungerührt im Dunklen hocken bleibt. (Die Kritik am Stand der Technik ist in Form einer geschickt getarnten Tirade gegen die bisher vorliegenden erfinderischen Lösungen aufzubauen. Dabei sind wissenschaftlich exakte Wendungen, bombastisch klingende termini technici und vernichtende Analysen möglichst reichlich zu verwenden. Zum Trost sei jedoch eingefügt: pseudowissenschaftliche Behauptungen tun’s im Allgemeinen auch. Besonders wichtig ist, dass die verwendete Sprache trotz üblem Satzgeschlinge - der Abschnitt ist insgesamt als erster Höhepunkt in der Benutzung des Patentdeutschen anzulegen - streng sachlich erscheint.) Zweck der Erfindung: Zweck der vorliegenden Erfindung ist die vollständige Beseitigung der Nachteile, die allen bisher bekannten Verfahren zum Aufscheuchen von Würmern aus Zuchtbeeten mehr oder minder anhaften. (Diese Passage hat ausschließlich den Charakter einer mit verhaltenem Stolze vorzutragenden Absichtserklärung). Technische Aufgabe, welche durch die Erfindung gelöst werden soll: Der Erfindung liegt die Aufgabe zugrunde, das Aufscheuchen von Würmern aus Zuchtbeeten auf möglichst weitgehend mechanisiertem Wege zu jeder beliebigen Zeit mit hoher Effektivität, d. h. bei einer Wurm-Migrationsrate 345 7.4 Das Formulieren der Patentschrift - leichter als gedacht <?page no="346"?> von > 2,8 WE/ 100 cm 2 min (und zwar wurmbezogen negativ geotrop) zu erwirken, wobei eine WE (Wurmeinheit) als Einheitswurm von l = 100 mm und d = 5 mm (bei 760 Torr und 80% rel. Feuchte) definiert ist. (Nur mit Hilfe und unter Verwendung einer derartigen Ausdrucksweise lässt sich das anzustrebende Ziel wenigstens annähernd erreichen. Über die Art dieses Ziels bestehen heute in Fachkreisen kaum noch Zweifel. Vornehmstes Ziel ist tatsächlich die möglichst weit gehende Verschleierung des nur für den oberflächlichen Betrachter anscheinend klar erläuterten Sachverhaltes, wobei die verwendete Ausdrucksweise von zentraler Bedeutung ist; man lässt also beispielsweise die Würmer nicht einfach zur Erdoberfläche kriechen, sondern drückt diesen an sich höchst primitiven Vorgang zweckmäßig als „negativ geotrope Migration“ aus). Technische Mittel der vorgelegten Erfindung: Das Wesen der Erfindung besteht nun darin, dass unter den Zuchtbeeten weitgehend waagerecht angeordnete Stangen, insbesondere solche mit bevorzugt quadratischem Querschnitt, derart einzugraben sind, dass durch Drehen derselben mit Hilfe vorzugsweise mechanischer Mittel, also beispiel‐ sweise über einen Steckschlüssel mittels doppelter Kronenradübertragung, solche Bodenerschütterungen hervorgerufen werden können, dass insbe‐ sondere untrainierte Würmer selbige für das Wühlen eines Maulwurfs zu halten genötigt sind und somit in erfindungsgemäß gewünschtem Maße an die Oberfläche gescheucht werden. Die Einbautiefe der insbesondere qua‐ dratischen Stäbe ist derart zu wählen, dass die Glaubwürdigkeit der Pseudo- Maulwurfs-Erschütterungsphänomene auch für vergleichsweise misstraui‐ sche Würmer keinem Zweifel unterliegen darf; dies ist insbesondere bei Einbautiefen zwischen 300 und 550 mm der Fall. Eine besondere Aus‐ führungsform der erfindungsgemäß bevorzugt verwendeten Anordnung besteht ferner darin, dass in eben derselben Tiefe anstelle der in bestimm‐ ten Abständen nebeneinanderliegenden Stäbe ein Kreuzgitter eingebaut wird, welches an den Eckpunkten mittels bis zur Erdoberfläche ragender Stangen gehaltert und über ebendiese zum Zwecke der Erzeugung im erfindungsgemäßen Sinne wirkender Erschütterungen (beispielsweise über einen Excenter) in rhythmischer Weise auf- und abbewegt werden kann. (Hier sollte dem Anfänger unmissverständlich gesagt werden, dass die tech‐ nischen Mittel der Erfindung generell von durchaus untergeordneter Bedeutung sind. Als völlig unwichtig können sie nur deshalb nicht eingestuft werden, 346 7 Von der Erfindung zur geschützten Erfindung <?page no="347"?> weil sie immerhin dem Prüfer im Patentamt einleuchten und überdies neu erscheinen müssen, da im Verlaufe des Prüfungsverfahrens das der Anmeldung entgegenstehende Material vergleichsweise gründlich abgeklopft wird; offen‐ kundige Überschneidungen oder gar Plagiate werden dabei mit Sicherheit entdeckt. Nicht mit der gleichen Sorgfalt zu überprüfen ist dagegen gewöhnlich die Ausführbarkeit dessen, was als neue technische Heilslehre vom Anmelder verkündet und gepriesen wird. Dies führte in den siebziger Jahren des vorigen Jahrhunderts beispielsweise dazu, dass den an sich sehr misstrauischen und kritisch eingestellten Herren des Kaiserlichen Patentamtes tatsächlich eine, offenbar ungemein geschickt formulierte, perpetuum mobile - Anmeldung mit durchrutschte. Im Falle unseres Beispiels ist jedenfalls nicht damit zu rechnen, dass die Ausführbarkeit des Verfahrens zum Aufscheuchen von Würmern aus Zuchtbeeten jemals praktisch vorgeführt werden muss, so dass ohne Bedenken auch weit abwegigere Scheuch-, Rüttel- und Übertragungskonstruktionen vorgeschlagen werden könnten („Schreibtischpatent“). Unbedingt verlangt wird dagegen die euphemistisch gemeinhin als „patentgerecht“ bezeichnete Aus‐ drucksweise, d. h. die brillante und exzessive Verwendung des Patentdeutschen; philosophisch veranlagte Naturen könnten regelrecht in Versuchung geraten, aus diesem Sachverhalt neue grundlegende Erkenntnisse zum Inhalt-Form- Problem abzuleiten, die auf jenem Sektor vergleichsweise spärliche Literatur zu bereichern, und aus dieser an sich völlig unerwarteten Richtung unseren für neuartige Beispiele stets dankbaren Gesellschaftswissenschaftlern helfende Hinweise zu vermitteln. Wichtig für den Erfinder ist jedoch vor allem, dass seine erfinderische - oder doch vermeintlich erfinderische - Leistung mit Hilfe der beschriebenen sprachlichen Technik gewissermaßen wie ein Phönix aus der Asche der bisher bekannten Verfahrensweisen emporsteigt. Mit vollem Recht wird in allen Publikationen zur Theorie des Erfindens die bestimmende Rolle der Phantasie gerühmt; man nehme derartige Hinweise speziell auch in Formulierungsfragen vollkommen ernst, und trage keinesfalls zu dünn auf bei der Darstellung der eigenen erfinderischen Leistung). Technische und technisch-ökonomische Auswirkungen: Bei der Ausbeutung erfindungsgemäß angelegter Zuchtbeete werden Auf‐ scheuch- und Ableseraten um 3,1 WE / 100 cm 2 min erreicht, was einer Produktivitätssteigerung (gegenüber dem herkömmlichen Aufstampf-Ver‐ fahren) auf 187,3 % entspricht, wobei die oben bereits erläuterten zusätzlich 347 7.4 Das Formulieren der Patentschrift - leichter als gedacht <?page no="348"?> wirksam werdenden speziellen Vorteile des erfindungsgemäßen Verfahrens noch nicht einmal besonders berücksichtigt wurden. (Dieser Abschnitt ist als betont knappe Erfolgsbeschreibung abzufassen. Auch der nicht spezialisierte Leser muss erkennen, dass es volkswirtschaftlich geradezu sträflich wäre, die Viecher auch weiterhin beispielsweise durch Aufstampfen nach oben zu scheuchen und sich den genialen Intentionen des Erfinders zu verschließen). Bezugsbeispiel: Die Erfindung soll nunmehr anhand eines Ausführungsbeispiels näher erläutert werden, wobei zunächst ein Bezugsbeispiel zur Darstellung der Arbeitsweise und der Ergebnisse eines typischen bekannten Verfahrens vorangestellt wird. Durch Aufstampfen mit den Füßen unter Verwendung nagelbewehrter Stiefel wurden beim Betrieb eines 30 m 2 großen Zuchtbeetes im Durchschnitt eines Erntejahres während der jeweils 15 min dauernden (und in ihrer Frequenz von der potentiellen Wurmzuwachsrate abhängigen) Fangperioden Wurmfangraten uni 1,7 WE/ 100 cm 2 min erzielt, wobei eine Wurmeinheit WE (Wurmeinheit) als Einheitswurm von l = 100 mm und d = 5 mm unter Normbedingungen definiert ist; die Erkrankungshäufigkeit der berufsmäßigen Aufstampfer, errechnet über die Summe der Fälle von pes planus, Hackensporn, Achillessehnenzerrung und Metatarseus-Fraktur, beläuft sich beim Betrieb eines derartigen Beetes auf 37,3 %, gerechnet nach Ausfallstunden pro Erntejahr, bezogen auf den theoretischen Arbeits‐ zeitfonds aller fest engagierten professionellen Aufstampfer. (Mit dieser Schilderung muss auch der Nichtfachmann vollkommen davon überzeugt werden, dass er von den bisher ausgeübten Verfahren besser die Finger lassen sollte. Die geringe Effektivität des im Bezugsbeispiel dargelegten „klassischen“ Verfahrens sowie der erhebliche Aufwand beim derart ausgeübten Betreiben der Zuchtbeete müssen den wirtschaftlich denkenden Leser gleich‐ sam unbewusst auf die unbedingte Notwendigkeit der Einführung eines pro‐ gressiveren Verfahrens orientieren. Das hohe Berufsrisiko der professionellen Aufstampfer ist in krassen Farben auszumalen. Auch emotional wenig emp‐ fängliche Leser sollten (dies ist eine Minimalforderung! ) tränengetrübten Auges gleichsam endlose Kohorten fußkranker Aufstampfer glauben vorüberwanken zu sehen. Tritt diese oder eine vergleichbare Wirkung nicht ein, so wurde das Bezugsbeispiel ohne Zweifel unsachgemäß abgefasst). 348 7 Von der Erfindung zur geschützten Erfindung <?page no="349"?> Ausführungsbeispiel: 40 Stäbe mit einem Querschnitt von 60x60 mm und einer Länge von 3000 mm werden im Abstand von 700 mm, parallel zueinander angeordnet, 550 mm tief eingegraben. Dabei wird zweckmäßig so verfahren, dass der vorbereitete plane Boden des künftigen Zuchtbeetes mit den Kantstäben, den endständig befestigten Kronenrädern und der im folgenden näher be‐ schriebenen Drehvorrichtung beschickt, und erst dann die Zuchtbeetfüllung eingebracht wird. Die Drehvorrichtung besteht aus einer stirnseitig sowie in Abständen von jeweils 700 mm mit Kronenrädern bestückten Welle, die im Winkel von 90° zu den Stäben verlegt wird, und zwar derart, dass die an den Enden auf 100 mm Länge rund ausgeführten Stäbe wie auch die Welle mittels einfacher Rundstahlbügel eine Führung erhalten, die das System in zweckentsprechender Weise fixiert, und, insbesondere während der Bedienung, gegen unerwünschtes Verrutschen schützt. Die solcherart installierte Einrichtung wird zur Erntezeit mittels kronen‐ radbestückten Steckschlüssels über das stirnseitig an der Welle befestigte Antriebselement in drehende Bewegung versetzt; der von der Erdoberflä‐ che aus bediente Steckschlüssel muss aus den oben dargelegten Gründen ebenfalls mit einer entsprechenden Führung versehen werden. Es ist zweck‐ mäßig, mit zwei ruckartig ausgeführten Umdrehungen des Steckschlüssels pro Minute zu arbeiten; unsere umfangreichen Simulationsversuche haben ergeben, dass bei dieser Verfahrensweise das Wühlverhalten eines mittel‐ europäischen Durchschnittsmaulwurfs annähernd naturgetreu nachgeahmt wird. Während der Monate Juli und August wurden im Verlaufe von insge‐ samt 8 (jeweils 15-minütigen) Ernteintervallen folgende Wurmfangraten (WE / 100 cm 2 min) erzielt: 2,9; 2,8; 3,1; 3,1; 2,9; 3,0; 3,2; 2,8. (Das Ausführungsbeispiel ist derart anzulegen, dass der Erfinder dem un‐ befangenen Leser der Patentschrift geradezu als Menschheitsbeglücker zu erscheinen hat. Auch diejenigen, die noch nie einen Regenwurm gesehen haben, geschweige denn einen solchen zu fangen beabsichtigen, und denen Aufbau und Betrieb eines Zuchtbeetes herzlich gleichgültig bleiben, müssen ob der umwerfenden erfinderischen Leistung mindestens zu 93 % ihres maximal erreichbaren Begeisterungsvermögens emotional stimuliert werden können. Je‐ dermann muss der Patentschrift ohne Schwierigkeiten sinngemäß entnehmen, dass Scharen jauchzender Würmer unter Einwirkung der erfindungsgemäßen 349 7.4 Das Formulieren der Patentschrift - leichter als gedacht <?page no="350"?> Verfahrensweise begeistert den lichten Höhen des Zuchtbeetes zustreben und sich dort klaglos einsacken lassen). Patentanspruch: Verfahren und Vorrichtung zum Aufscheuchen von Würmern, insbesondere Erd- und Regenwürmern, aus Zuchtbeeten, dadurch gekennzeichnet, dass unter Verwendung vorzugsweise mechanisch von der Erdoberfläche aus zu betätigender Scheuch- und Rüttelvorrichtungen, die sich unterhalb der Hauptaufenthaltszone der Würmer befinden, maulwurfsähnliche Erschüt‐ terungen erzeugt werden, die eine vorzugsweise negativ geotrope Migration der Würmer zur Folge haben. (Der Patentanspruch stellt den Extrakt dessen dar, was nach Meinung des Erfinders - im Erfolgsfalle auch nach Ansicht des Patentprüfers - als neu und somit schutzwürdig einzustufen ist. Besondere stilistische Eskapaden sind nicht erforderlich, da der Leistungsnachweis auf diesem Gebiet überwiegend bereits im Abschnitt „Technische Mittel der vorgelegten Erfindung“ erbracht werden muss. Aus naheliegenden Gründen sollte vermieden werden, wesentlich mehr in den Patentanspruch hineinzustopfen, als im eigentlichen Text der Patentschrift an Fakten und/ oder windigen Behauptungen insgesamt vorgelegt worden ist). Nun beherrschen Sie, verehrter Interessent, die Materie bereits perfekt: begeben Sie sich drum frisch ans Werk! Die möglicherweise noch verblie‐ bene kleine Unklarheit, was denn nun eigentlich der konkrete Gegenstand Ihrer demnächst fälligen Patentanmeldung sein soll, wird sich in Anbetracht der Tatsache, dass die Welt voll ist von Mängeln und technischen Unzuläng‐ lichkeiten, bei einigem guten Willen doch wohl überwinden lassen“ (Zobel 1976, S. 24-36). In einigen meiner Kreativitätstrainingsseminare habe ich diesen Text als Muster verwendet. Nicht wenige Workshop-Teilnehmer versicherten mir, dass dieses locker aufbereitete Beispiel viel dazu beigetragen habe, ihre anfängliche Scheu vor dem vermeintlich schwierigen Thema Formulieren einer Patentschrift aktiv zu überwinden. Zunächst erscheint dieses Muster dem Leser wohl reichlich übertrieben, insbesondere, was die bewusst extrem verschnörkelten Formulierungen - das so genannte „Patent-Chinesisch“ (siehe oben) - betrifft. Jedoch festigt sich mit wachsender Erfahrung die Erkenntnis, dass viele völlig ernst gemeinte Patentschriften noch weit verschwurbelter formuliert sind. In 350 7 Von der Erfindung zur geschützten Erfindung <?page no="351"?> vielen Fällen dient dies tatsächlich der (beabsichtigten) Verschleierung des Sachverhalts, in anderen ist jedoch nicht auszuschließen, dass wirre For‐ mulierungen eher auf wirre Gedankengänge eines „Möchtegern-Erfinders“ hindeuten. Der Besitzer eines Patentes ist verständlicherweise nicht daran interes‐ siert, dass die Konkurrenz Ideenklau betreiben kann, was bei klar formu‐ lierten Beschreibungen prinzipiell ja stets möglich ist. Auch deshalb lesen sich viele Patente so, als wolle der Erfinder die von ihm beanspruchte neue technische Lehre auf jeden Fall durch intensiven Gebrauch des Patent- Chinesischen weitgehend unverständlich machen. All zu sehr übertreiben darf er dabei jedoch nicht, denn der Gesetzgeber - als konkreter Akteur: der Patentprüfer - fordert, dass ein Patent von einem Durchschnittsfachmann stets nachgearbeitet werden kann. Meinen Lesern empfehle ich deshalb, einigermaßen vernünftig formu‐ lierte Muster aus ihrem jeweils bearbeiteten Fachgebiet dann heranzuzie‐ hen, wenn es an das Formulieren der eigenen Patentschrift geht. Glückli‐ cherweise gibt es solche Muster in fast jedem Fachgebiet. Nur ein unheilbar am Perpetuum-Mobilismus erkrankter „Erfinder“ ist, mit oder ohne Muster, erfahrungsgemäß nicht zu retten. 7.5 Das Gebrauchmuster als so genanntes „Kleines Patent“ Das Gebrauchsmuster ist ein eigenständiges, wenn auch stark an das Patent angelehntes Schutzrecht. Suhr (2000) zitiert Trüstedt, der es den „Stiefbruder des Patentes“ nannte. „Man hat das Gebrauchsmuster gelegentlich als „kleines Patent“ bezeichnet, weil für seine Eintragung geringere Anforderungen zu erfüllen sind als für die Erteilung eines Patentes. Es hat eine kürzere Laufdauer und eignet sich deshalb vor allem zum Schutz relativ kurzlebiger Erfindungen. Die Kosten für die Erlangung des Gebrauchsmusterschutzes sind deutlich geringer als für die Erwirkung eines Patents, gleiches gilt für die Aufrechterhaltung des Schutzrechts.“ (Suhr 2000, S. 234) Dieses Zitat sei ergänzt und kommentiert. Was die Anforderungen anbe‐ langt, so hat der Bundesgerichtshof im Jahre 2006 durch ein Urteil die Sachlage allerdings insofern verändert, als nunmehr an die erfinderische Leistung (die „Erfindungshöhe“), rein juristisch gesehen, die gleichen Anforderungen wie bei einem Patent gestellt werden. Meine Erfahrung 351 7.5 Das Gebrauchmuster als so genanntes „Kleines Patent“ <?page no="352"?> zeigt allerdings, dass in der Praxis noch immer stillschweigend davon ausgegangen wird, beim Gebrauchsmuster komme man mit einer gerin‐ geren erfinderischen Leistung als beim Patent zum Ziel. Dies mag auch damit zusammenhängen, dass beim Gebrauchsmuster (von einer formalen Prüfung der Anmeldeunterlagen abgesehen) vor der Eintragung in die Gebrauchsmusterrolle keine Neuheitsprüfung von Amts wegen erfolgt. Hier wird ganz bewusst allein der Konkurrenz das Feld überlassen. Nur wenn ein Konkurrent begründet die Auffassung vertritt, der als erfinderisch beschrie‐ bene Gegenstand bzw. Sachverhalt sei nicht neu, erfolgt eine Diskussion zu diesem Hauptkriterium. Während nun im Falle des Patentes darüber ein teurer und langwieriger gerichtlicher Streit entbrennen kann, ist dies in aller Regel beim Gebrauchsmuster vermeidbar. Das direkte Gespräch des Konkurrenten mit dem Anmelder der strittigen Schrift genügt. Sind die Argumente des Konkurrenten überzeugend, reicht es aus, wenn die Anmeldung zurückgenommen wird; dazu ist nur der Antrag auf Löschung in der Gebrauchsmusterrolle erforderlich. In meiner Beratertätigkeit hatte ich sogar einen Fall, in dem mehr als eine nur gütliche Einigung zwischen dem Konkurrenten und meinem Klienten zustande kam. Mein Klient akzeptierte die Priorität des seiner Anmeldung vom Konkurrenten entgegengehaltenen Schutzrechtes und beantragte die Löschung seines eigenen Gebrauchsmus‐ ters. Er ahnte jedoch als guter Branchenkenner, dass der Konkurrent kaum in der Lage sein konnte, das von ihm geschützte Produkt auch zu erzeugen. Anders ausgedrückt: Der Konkurrent hatte sich bei seinem erfolgreichen Einspruch auf ein eigenes „Schreibtischpatent“ berufen. Es kam dann zu einer Vereinbarung des Inhaltes, dass mein Klient das Produkt für den Kon‐ kurrenten (zu einem Spezialpreis) erzeugen durfte, ohne dass ein formaler Lizenzvertrag abgeschlossen wurde. Der zweite von Suhr (2000) angeführte Vorteil des Gebrauchsmusters ist - gerade auch für kleinere Betrieb oder freie Erfinder - mindestens genauso wichtig. Es geht um die Kosten. Während für eine Patentanmel‐ dung einschließlich der Verteidigung des Schutzrechtes, falls es angegrif‐ fen wird, kaum absehbare Kosten anfallen können, sind die Kosten für ein Gebrauchsmuster sehr übersichtlich. Die Anmeldung kostet nur 40 € (Eintragungsgebühr), und mit Eintrag in die Gebrauchsmusterrolle ist das Schutzrecht dann für drei Jahre gültig. Der Schutz lässt sich gegen Zahlung einer vergleichsweise moderaten Gebühr um weitere drei Jahre verlängern. Danach kann das Schutzrecht gegen Gebühr noch zweimal um je zwei 352 7 Von der Erfindung zur geschützten Erfindung <?page no="353"?> Jahre verlängert werden, so dass die maximale Gesamtgültigkeitsdauer eines Gebrauchsmusters zehn Jahre beträgt. Bis 1990 galten Arbeitsgeräte oder Gebrauchsgegenstände (bzw. Teile da‐ von) dann als gebrauchsmusterschutzfähig, wenn sie eine neue Anordnung, Vorrichtung oder Schaltung aufwiesen. 1990 wurde die Beschränkung auf Gebrauchsgegenstände und damit auch auf die Raumform aufgehoben. Die Definition lautet nun: „Als Gebrauchsmuster werden Erfindungen geschützt, die neu sind, auf einem gewerblichen Schritt beruhen und gewerblich anwend‐ bar sind“. Nicht schutzfähig sind - ganz ähnlich wie beim Patent - Erfindungen, deren Veröffentlichung oder Verwertung gegen die guten Sitten versto‐ ßen würden, sowie auch Pflanzensorten und Tierarten. Ferner kommen, ebenso wie beim Patent, für einen Schutz nicht infrage: Entdeckungen, wissenschaftliche Theorien, ästhetische Formschöpfungen (letztere sind jedoch dem Design-Schutz zugänglich). Nicht schutzfähig sind ferner: Pläne, Regeln, Verfahren für gedankliche Tätigkeiten, Programme für Datenverar‐ beitungsanlagen, und zwar, falls für diese Gegenstände oder Tätigkeiten als solche Schutz begehrt wird (Suhr 2000, S. 236). Der entscheidende Unterschied zum Patent ist, dass Verfahren, hier im Sinne von Arbeits- und Herstellungsverfahren, durch ein Gebrauchsmuster grundsätzlich nicht geschützt werden können. Da jedoch (s. o.) fast alle überhaupt denkbaren gegenständlichen Produkte dem Schutz zugänglich sind, ist das Gebrauchsmuster für viele kleine und mittlere Betriebe ein nahezu ideales Instrument. Selbst das Defizit, die Verfahren betreffend, ist nach meiner Erfahrung nicht wirklich störend. Zwar können Verfahren nicht geschützt, d. h. es können keine verfahrensbezogenen Schutzansprüche formuliert und geltend gemacht werden, jedoch gibt es einen pfiffigen Ausweg, die Konkurrenz dennoch zu ärgern. Dabei ist hilfreich, dass Gebrauchsmuster ganz ähnlich wie Patente (s. Kap. 7.4) formuliert werden. Da nun jedes beliebige (schutzfähige) Produkt nicht plötzlich einfach da ist, sondern nach irgend‐ einem Verfahren hergestellt werden muss, findet sich im Textabschnitt der Beschreibung unter Technische Mittel der vorgelegten Erfindung (s. 7.4) auch beim Gebrauchsmuster die Möglichkeit, etwas Charakterisierendes zum praktizierten Herstellungsverfahren unterzubringen. Ein Schutz kann daraus zwar nicht abgeleitet werden, aber es liegt damit immerhin ein offizieller, allgemein zugänglicher Text vor. Er kann im Streitfalle der an 353 7.5 Das Gebrauchmuster als so genanntes „Kleines Patent“ <?page no="354"?> einem Verfahrenspatent interessierten Konkurrenz als neuheitsschädlich entgegengehalten werden. Was die Schutzwirkung anbelangt, so ist das Gebrauchsmuster dem Patent ebenbürtig. Auch der Umstand, dass ein Gebrauchsmuster „nur“ maximal zehn Jahre gültig ist, kann gegenüber dem zwanzig Jahre gültigen Patent kaum als Nachteil gesehen werden - im Gegenteil. Die Technik ent‐ wickelt sich heute dermaßen schnell, dass ein allzu lange gültiger Schutz den Fortschritt behindern kann. Nehmen wir den Fall, dass ein einflussreicher Manager in einem großen Konzern ein wichtiges Patent hält. Er wird dann kaum interessiert sein, die von seinen Mitarbeitern für fortschrittlichere Lösungen geplanten Anmeldungen zu unterstützen; die während zweier Jahrzehnte jährlich gezahlten Vergütungen für sein Patent sind für ihn vielleicht eine allzu starke Verlockung. Für freie Erfinder ist das Gebrauchsmuster besonders vorteilhaft. Ein freier Erfinder wird sich wohl nur ausnahmsweise mit der Entwicklung eines neuen, meist hoch komplexen Herstellungsverfahrens befassen kön‐ nen. Deshalb besteht für ihn im Regelfalle keine Veranlassung, ein teures und zudem meist schwierig durchsetzbares Patent anzustreben, denn alle gegenständlichen Objekte sind - von den oben erläuterten Ausnahmen abgesehen - dem Gebrauchsmusterschutz zugänglich. So kommt es, dass viele neue Gegenstände des täglichen Gebrauchs per Gebrauchsmuster, nicht aber per Patent geschützt sind. 7.6 Schutzrechtspolitik, Lizenzen, Arbeitnehmererfindungen Für ein Unternehmen ist der Schutz seiner Verfahren und Erzeugnisse von existenzieller Bedeutung. Zwar bringt dieser Schutz zunächst keinen unmittelbaren materiellen Gewinn, jedoch hat fehlender Schutz zur Folge, dass die Konkurrenz die Verfahren des Unternehmens kopieren und die Produkte ungestraft auf den Markt bringen kann. Hat das Unternehmen hingegen seine Verfahren und Produkte schutzrechtlich gesichert, ist kon‐ kurrierenden Unternehmen dieser Weg verbaut. Auch die viel zitierten und oft mythisch verklärten „Patente im Panzer‐ schrank“ bringen einem Unternehmen keinen direkten Nutzen. Sie sind jedoch für die Schutzrechtspolitik des Unternehmens von erstrangiger Bedeutung. Nehmen wir an, ein Unternehmen betreibe ein Verfahren, 354 7 Von der Erfindung zur geschützten Erfindung <?page no="355"?> dessen Entwicklung und Praxisüberführung hohe Kosten verursacht hat, das nun gut funktioniert, und dessen Maschinen und Apparate noch lange nicht abgeschrieben sind. Ein solches Unternehmen ist aus kommerziellen Gründen nicht daran interessiert, schon wieder eine teure Neuinvestition zu tätigen, auch wenn es sich dabei um ein besseres als das aktuelle Verfahren handeln mag. Nehmen wir an, die Forschungsabteilung des Unternehmens habe dieses deutlich bessere Verfahren selbst entwickelt und zum Patent angemeldet. Das Verfahren ist damit für die Konkurrenz tabu; im eigenen Unternehmen besteht aus oben genanntem Grunde keine Veranlassung, es (sofort) zu nutzen. Der von Mythen umwobene Panzerschrank ist nur im Sonderfall (für das hier nicht behandelte Geheimpatent) erforderlich. Ansonsten spielt sich der oben beschriebene Vorgang in aller Öffentlichkeit ab. Unmittelbaren Gewinn kann ein Unternehmen hingegen erzielen, wenn es Lizenzen vergibt. Dem Lizenznehmer wird damit erlaubt, das Patent des Lizenzgebers zu nutzen. Unproblematisch ist, wenn ein ingenieurtechnisch oder anwenderorientiert arbeitendes Forschungsunternehmen, das keine eigenen Produktionsinteressen hat, die Lizenz vergibt. Unternehmen dieser Art leben davon; es ist ihr Geschäftsmodell. Anders sieht es aus, wenn ein - meist großes - Unternehmen neben seiner Produktion auch Forschung und Entwicklung betreibt. Gewöhnlich ist das keine Grundlagenforschung, sondern praxisorientierte Zweckforschung. Wenn nun ein solches Unternehmen ein patentreifes Verfahren entwickelt oder wesentliche - schutzfähige - Weiterentwicklungen der im eigenen Unternehmen laufenden Produktionsverfahren erzielt hat, ist die Frage einer Lizenzvergabe an die Konkurrenz schwierig. Zwei Beispiele aus dem eigenen Erfahrungsbereich sollen das illustrieren. 1927/ 28 errichtete die I.G. Farbenindustrie A.G. auf dem Gelände des Stick‐ stoffwerkes Piesteritz vier große Elektroöfen mit einer Leistungsaufnahme von je 10 MW (später 12 MW) zur Produktion gelben Phosphors. Das war damals eine Pionierleistung. Alle zuvor betriebenen Öfen waren wesentlich kleiner und besaßen keine funktionierende Gasreinigung, so dass der pro‐ duzierte Phosphor stark schlammhaltig anfiel. Zahlreiche Patente, auch die zuvor in Bitterfeld entwickelten neuartigen Elektroden-Tieffassungen betreffend, sicherten dem Konzern nunmehr weltweit die technologische Führung auf diesem Gebiet. Es war deshalb sicher eine gewagte Entscheidung der Konzernleitung (im DEFA-Film „Rat der Götter“ genannt), im Jahre 1938 eine Lizenz zu der - 355 7.6 Schutzrechtspolitik, Lizenzen, Arbeitnehmererfindungen <?page no="356"?> damals - märchenhaften Gebühr von einer Million $ an die MONSANTO Chem. Corp. zu vergeben (Zobel 2019). Zehn Jahre lang (1928 - 1938) produzierten in Piesteritz die größten und modernsten Phosphoröfen der Welt. Nunmehr konnten die USA in großen Schritten aufholen. MONSANTO baute auf Basis der Piesteritzer Lizenz noch größere Phosphoröfen und galt nun für etwa zwei Jahrzehnte als weltweit führend auf dem Gebiet der Phosphorindustrie. Es ist heute nicht mehr nachvollziehbar, warum die I.G. Farben mit dieser Lizenzvergabe ihre klare technologische Führung auf dem Phosphorsektor aufgaben. Eine Möglichkeit ist, dass der amerikanische Markt für die in Piesteritz erzeugten Phosphorverbindungen (technische u. Lebensmittelphosphate) wegen der Transportkosten uninteressant war, eine andere, dass der Devisenhunger im damaligen Deutschen Reich dermaßen groß war, dass strategische Gesichtspunkte im Zweifelsfalle unberücksich‐ tigt blieben. Ein weiteres Beispiel, das ich selbst erlebt habe, betrifft die Herstellung von Pentanatriumtriphosphat Na 5 P 3 O 10 , gewöhnlich Natriumtripolyphos‐ phat (oder einfach „Tripoly“) genannt. Dieses Polyphosphat, das technisch wichtigste seiner Substanzklasse, wurde und wird bevorzugt als Waschmit‐ telphosphat eingesetzt. Erst der Trend zu phosphatärmeren Waschmitteln führte zu einem Rückgang der seinerzeit national und international außer‐ ordentlich hohen Produktionsmengen. Im Stickstoffwerk Piesteritz zählte Tripoly zu den wichtigsten Produkten. Das bei uns angewandte Drehrohrofen-Rückgut-Verfahren hatte allerdings Mängel; sie betrafen die erreichbare Produktqualität wie auch die Stabilität des Produktionsprozesses. Meine Mitarbeiter und ich entwickelten deshalb einen modifizierten Prozess, dessen wesentliche Besonderheit im Weglassen bisher für unverzichtbar gehaltener Apparate lag. Der Trick basierte darauf, dass die Funktionen der eliminierten Apparate von den verbliebenen Aggre‐ gaten mit übernommen werden konnten. Der Gesamtprozess funktionierte danach sogar besser als zuvor. Die Kapazität der Anlage konnte im Ergebnis unserer Entwicklungsarbeit verdoppelt, die Produktqualität wesentlich verbessert werden. Wir meldeten unser modifiziertes Verfahren zum Patent an (Zobel, Kuchler, Oppermann und Soyka 1969/ 1971) und konnten uns einer recht ansprechenden Vergü‐ tung erfreuen. Damals waren auch einige Länder der Dritten Welt an der Errichtung oder dem Ausbau eigener Kapazitäten zur Produktion von Waschmittelphosphaten brennend interessiert. In den siebziger Jahren erschien eines Tages der 356 7 Von der Erfindung zur geschützten Erfindung <?page no="357"?> Generaldirektor eines tunesischen Phosphatunternehmens in unserem Werk und bekundete sein Interesse an unserem Tripoly-Verfahren. Ich führte ihn durch unsere Anlage. Er lud mich daraufhin ein, sein Unternehmen in Gafsa zu besichtigen und die vorbereitenden Gespräche für eine Lizenzvergabe mit ihm zu führen. Nach meiner Erinnerung wurden Lizenzfragen dieser Art damals letztlich vom zentral organisierten Außenhandel der DDR entschieden. Ich als Betriebsleiter des Piesteritzer Phosphorsäure- und Phosphatbetriebes wurde jedenfalls nicht gefragt. Was ich damals nicht wusste: Alle westeuropäischen Phosphatproduzenten einschließlich der (west)deutschen, an sich erbitterte Konkurrenten, waren sich darin einig, keine Produktionslizenzen zu vergeben. Später erfuhr ich, dass diese informelle Abmachung intern leicht ironisch als „Tripoly-Mafia“ bezeichnet wurde. Die Reise nach Tunis bzw. Gafsa wurde dann vom Berliner Außenhandel organisiert. Obwohl vom Lizenzinteressenten namentlich angefordert, konnte ich an der Reise nicht teilnehmen, weil damals im Zweifelsfalle nicht die fachliche Kompetenz, sondern unbedingte Systemtreue (an der man bei mir zweifelte) als Auswahlkriterium herangezogen wurde. Der tunesische Generaldirektor saß dann neun DDR-Delegationsmitgliedern gegenüber und zeigte sich sehr indigniert, dass ausgerechnet der von ihm angeforderte Fach‐ mann fehlte. Einige Delegationsmitglieder hatten sich in die ihnen zunächst fremde Materie nach Kräften eingearbeitet; andere bekleideten zwar hohe Funktionen, hatten aber von der Sache keine Ahnung. Es lässt sich denken, wie es ausging: Die Lizenz kam nicht zustande. Das machte die Frage hinfällig, ob eine Lizenzvergabe überhaupt strategisch klug gewesen wäre. Nur wenige Erfinder sind heute „freie“ Erfinder, die auf eigene Kosten und eigenes Risiko anspruchsvolle Entwicklungsarbeit leisten, ihre Ergebnisse patentieren lassen und ihre Patente zu vermarkten suchen. Dies kann durch einen Verkauf des jeweiligen Patents erfolgen; dann gehen alle Rechte auf den Käufer über. Auch die Vergabe einer nicht exklusiven Lizenz ist möglich: Der Erfinder erlaubt dem Lizenznehmer die Nutzung des Patents, behält sich aber vor, Verträge dieser Art auch mit anderen Lizenzinteressierten abschließen zu können. Nun sind die meisten Erfinder heutzutage keine Freiberufler, sondern im weitesten Sinne Arbeitnehmer. Das wirft die Frage nach einer angemessenen Vergütung für die erbrachte erfinderische Leistung auf. Im Prinzip haben wir es hierbei mit konkurrierenden Interessen bzw. einem Zielkonflikt zu tun: Aus unternehmerischer Sicht ist die Leistung des Arbeitnehmers mit seinem Gehalt abgegolten. Weiterreichende Ergebnisse, auch Erfindungen, 357 7.6 Schutzrechtspolitik, Lizenzen, Arbeitnehmererfindungen <?page no="358"?> stehen nach dieser Auffassung allein dem Arbeitgeber zu. Das sieht der angestellte Erfinder jedoch anders: Er beruft sich verständlicherweise auf das erfinderrechtliche Prinzip, wonach die Rechte an einer Erfindung allein beim Erfinder liegen. Diesen Zielkonflikt versucht das Arbeitnehmererfinderrecht zu lösen. Es geht davon aus, dass der Angestellte verpflichtet ist, seine Erfindung zunächst dem Arbeitgeber zur Nutzung anzubieten. Dieser ist dann, falls er an der Sache interessiert ist, verpflichtet, die Erfindung zum Patent anzumelden. Alle Rechte gehen auf den Arbeitgeber über. Dem angestellten Erfinder steht dann grundsätzlich eine angemessene Vergütung zu, insbe‐ sondere für ein genutztes Patent. Aber auch ein aus strategischen Gründen angemeldetes (nicht genutztes) Patent muss vergütet werden. Für mehr oder minder anregende Diskussionen sorgt dann stets die Frage, was wohl unter angemessen zu verstehen sei. Eine häufig genutzte Berechnungsgrundlage ist die so genannte „Lizenz‐ analogie“: Es wird die im Falle einer angenommenen Lizenzvergabe für angemessen gehaltene Lizenzgebühr zugrunde gelegt. Dem Erfinder steht dann ein bestimmter Prozentsatz dieser fiktiven Lizenzgebühr zu. Dabei ist nicht gleichgültig, ob z. B. der Forschungsdirektor oder ein kleiner Angestellter aus der Produktion erfinderisch tätig waren. Im erst genannten Falle ist Erfinden fast schon als unmittelbare Arbeits‐ aufgabe anzusehen, so dass die Leistung mit dem Gehalt weitgehend abge‐ golten ist; dem entsprechend ist nur ein geringer Vergütungsbetrag fällig. Im zweiten Falle hingegen kann der Erfinder mit einer vergleichsweise interes‐ santen Vergütung rechnen. Vieles ist Verhandlungssache. Jeder erfinderisch tätige Arbeitnehmer sollte moderat verhandeln, denn er erfindet ja nicht pausenlos, und dürfte für den „normalen“ Alltag an einem vernünftigen Betriebsklima interessiert sein. Andererseits wäre es falsch, auf seine Ansprüche zu verzichten. Für Streitfälle gibt es ein beim Patentamt angesiedeltes Schiedsgericht. Manche Arbeitgeber versuchen beim Abschluss des Arbeitsvertrages eine Klausel des Inhaltes unterzubringen, dass das Arbeitnehmererfinderrecht im Zusammenhang mit diesem Arbeitsvertrag nicht herangezogen werden soll. Auch wenn dies mit einem hohen Gehalt begründet wird, sind solche Abmachungen prinzipiell unzulässig. Das Patentwesen ist - insbesondere, was seine juristischen Aspekte betrifft - inzwischen so etwas wie eine eigene Wissenschaft geworden. Ich konnte deshalb nur die für den Praktiker wichtigsten Punkte behandeln. 358 7 Von der Erfindung zur geschützten Erfindung <?page no="359"?> Während der Erfinder im Falle des Gebrauchsmusters durchaus noch die Chance hat, sich entsprechend zu qualifizieren und die Sache allein zu bewältigen, ist dies bei - insbesondere höherwertigen - Patenten oft nur noch mithilfe eines Patentanwaltes möglich. Wer sich für Einzelheiten des Gebietes näher interessiert, dem sei das hervorragende Werk von Suhr (2000) empfohlen. Das Buch „Expert Praxis‐ lexikon Technische Schutzrechte“ von Reichel (1999) bringt, so der Untertitel, „500 Begriffe von A bis Z - für den Praktiker ausgewählt“. Da diese 500 Begriffe nur eine Auswahl sind, bekommt man eine Ahnung davon, wie viele Begriffe insgesamt auf diesem Gebiet eine Rolle spielen dürften. Die genannten Quellen sind seriös, aber nicht mehr ganz neu. Das Gebiet befindet sich in lebhafter Entwicklung. Berücksichtigt werden sollte deshalb stets der juristisch aktuelle Sachstand. Auf eine für den Praktiker wichtige Besonderheit meines Buches sei ab‐ schließend hingewiesen. Die gewählte Art der Darstellung, speziell der nach den Prinzipien der Erfindungsmethodik ausführlich behandelte Stoff (Kapitel 3, 4 u. 6), ist Patentanwälten bzw. Patentprüfern in dieser Form nur selten bekannt - wohl auch deshalb, weil es nach derzeitiger Rechtslage uninteressant ist, wie ein Erfinder zu seiner Idee gekommen ist. Mein Buch liefert somit methodische Anleitungen zum Erfinden, die vom Patentprüfer - selbst wenn er sie kennen würde - nicht berücksichtigt werden. Jedoch gibt es deutliche Hinweise darauf, dass dies nicht ewig so bleiben wird. Sollte dann der Einsatz nachvollziehbarer Handlungsempfehlungen als fachmännisches Handeln gelten, wäre es zu spät. Ich empfehle meinen Lesern deshalb, frisch ans Werk zu gehen. In diesem Sinne wünsche ich Freude an der erfinderischen Arbeit, Gesund‐ heit, Glück und Erfolg! 359 7.6 Schutzrechtspolitik, Lizenzen, Arbeitnehmererfindungen <?page no="361"?> 8 Literatur Adams, S. (2000) Dilbert Future. Der ganz normale Wahnsinn geht weiter. Heyne Allgemeine Reihe, Taschenbucherstausgabe 10/ 2000, Nr. 01/ 13128, München Ärztezeitung (2004) Nr. 117 v. 25./ 26. Juni 2004, S. 16 Ärztezeitung (2005) Nr. 131 v. 18. Juli 2005, S. 16 Ärztezeitung (2005) Nr. 140 v. 29./ 30. Juli 2005, S. 16 Ärztezeitung (2005) Nr. 142 v. 2. August 2005, S. 16 Ärztezeitung (2006) Experten halten Feinstaub-Grenzwerte für zu hoch. Nr. 160 v. 11. 09. 2006 Ärztezeitung (2006) Lärm soll Ruhe bringen ins Schlafzimmer. Nr. 203 v. 13. 11. 2006 Albrecht, J. (1996) Im Normalfall denkt der Mensch nicht. In: Objekt und Prozess, 17. Designwissenschaftliches Kolloquium, Burg Giebichenstein, Halle/ Saale Altov, G. (1984) I tut pojavilsa izobretat`jel. Izdat`jelstvo „Djetskaja Literatura“ (russ.), Moskva Altov, G. (1986) Der Hafen der steinernen Stürme. 3. Aufl., Verlag Das Neue Berlin, Berlin Altschuller, G.S. (1973) Erfinden - (k)ein Problem? Anleitung für Neuerer und Erfinder. Verlag Tribüne, Berlin Altschuller, G.S., Seljutzki, A., (1983) Flügel für Ikarus. Verlag MIR/ Urania-Verlag, Moskau / Leipzig-Jena-Berlin Altschuller, G.S. (1984) Erfinden - Wege zur Lösung technischer Probleme. Hrsg.: R. Thiel, H. Patz waldt. Verlag Technik, Berlin Altschuller, G.S., Zlotin, B.L., Filatov, V.J. (1985) Professija poisk novogo. Kartja moldovenjaske, Kishinjow Ardenne, M.v. (1987) Sechzig Jahre für Forschung und Fortschritt. Autobiographie, 7. Aufl., Verlag der Nation, Berlin Barkleit, G. (2005) Scheitern eines innovativen Ansatzes. Manfred von Ardenne und die Krebs-Mehrschritttherapie. In: Deutsches Ärzteblatt 102 (2005) H. 6 v. 11. Februar 2005 Beck, H. (2016) HIRNRISSIG. Die 20,5 größten Neuromythen - und wie unser Gehirn wirklich tickt. 2. Aufl., Wilhelm Goldmann Verlag, München <?page no="362"?> Bick, H. (1983/ 1985) Belüftungseinrichtung zum Begasen von Flüssigkeiten, insbe‐ sondere zum Lufteintrag in Wasser, insbes. Abwasser. DOS. 3 324 039 v. 4. 7. 1983, offengel. 24. 1. 1985 Bienengräber, A. (1978) Humor und Humor. In: Dt. Gesundheitswesen 33 (1978) 31, S. IX, Berlin Blunck, R. (1942) Hugo Junkers - Der Mensch und das Werk. Wilhelm Limpert Verlag, Berlin Boettcher, P., Hoyer, W., Kessler, H., Luedemann, G., Pflug, D., Garbe, D. (1982/ 1984) Bandförmiges textiles Drainageelement. DD - PS. 210 938 v. 18. 10. 1982, ausg. 27. 6. 1984 Böttcher, H., Epperlein, J. (1984) Moderne photographische Systeme. Deutscher Verlag für Grundstoffindustrie, Leipzig de Bono (1995) Edward de Bonos Denkschule - Zu mehr Innovation und Kreativität. Orbis-Verlag, München Bredow, R. v. (2007) Das gleiche Geschlecht. In: SPIEGEL, H. 6/ 2007 v. 5. Februar 2007, S. 142, Hamburg Breuer, M. (1985/ 1987) Verfahren u. Vorrichtung zur Förderung von klebriger Kohleelektrodenmasse. DOS. 3 536 059 v. 9. 10.1985, offengel. 9.4.1987 Brockhaus (1933) Der Große Brockhaus, Handbuch des Wissens in zwanzig Bänden, 15. Aufl., Bd. 16, S. 462, Leipzig Cheney, M. (1995) Erfinder, Magier, Prophet: Nikola Tesla. Omega-Verlag, Düssel‐ dorf Christ, R. (1981) Das Chamäleon oder Die Kunst, modern zu sein. 4. Aufl., Verlag der Nation, Berlin Cianchi, M. (o. J.) Die Maschinen Leonardo da Vincis. Beccocci Editore, Florenz Csikszentmihalyi, M. (1999) Kreativität. 4. Aufl., Klett-Cotta, Stuttgart Denkwerkzeuge - The Six Thinking Hats (www.denkclub.de) Deysson, C. (1999) Die Kraft des Einfachen. In: Wirtschaftswoche H. 49 v. 2.12.1999 Dirlewanger, A. (2006) Langsamer ist besser. In: Dirlewanger Innovations-Impulse 3/ 2006 (nach: WDR „Profit“, Radiosendung vom 25. 10. 2006) Dirlewanger, A. (2016) Innovation der Innovation - Vom Innovationsmanagement zum Science Fiction Management. Peter Lang, Bern, Berlin, Bruxelles, Frankfurt a. M., New York, Oxford, Wien Döllen, H. (1984/ 1986) Stopfen zum Verschließen von Hüllrohren im Betonbau. DOS 3 433 575 v. 13. 9. 1984, offengel. 20. 3. 1986 362 8 Literatur <?page no="363"?> Drews, R., Linde, H. (1995) Innovationen gezielt provozieren mit WOIS-Erfahrungen aus der Automobilindustrie. In: Konstruktion 47, S. 311-317. Springer-Verlag, Heidelberg Drachenberg, M. (2006) Operation gelungen. Arzt- und Patientenwitze. Eulenspie‐ gel-Verlag, Berlin Eder, J. M.., u. Trumm, A. (1929) Die Lichtpausverfahren, die Platinotypie und verschiedene Kopierverfahren ohne Silbersalze. Dritte gänzlich umgearbeitete und vermehrte Auflage. Verlag von Wilhelm Knapp, Halle a. d. Saale Epperlein, J. (1984) Die Silberhalogenidphotographie und das Silberproblem. In: Chemische Technik 36, H. 6. Deutscher Verlag für Grundstoffindustrie, Leipzig. Fleiß, J. (2003) Hochbegabung und Hochbegabte. Mit Berichten Betroffener. Tectum- Verlag, Marburg 2003 Flögel, C.F. (1760) Einleitung in die Erfindungskunst. Bey Johann Ernst Meyer, Breßlau und Leipzig Gardner, H. (1996) So genial wie Einstein. Klett-Cotta, Stuttgart Geschka, H., Moger, S., Rickards, T. (1994) Creativity and Innovation - The Power of Synergy. Proceedings of the Fourth European Conference on Creativity and In‐ novation, 25.-28. 8. 1993. Geschka & Partner Unternehmensberatung, Darmstadt. Geschka, H. (2003) Methodiken zur Lösung technischer Probleme. www.triz-online -magazin.de/ 03-03 Gilde, W., Belkius, E. (1972) Erfinden was noch niemals war. TWA Nr. 90 des Zen‐ tralinstituts für Schweißtechnik der DDR, Halle/ Saale. Urania-Verlag Leipzig / Jena / Berlin . Gilde, W. (1985) Wege zum Erfolg. Erfahrungen, Gedanken, Ratschläge. Mitteldeut‐ scher Verlag, Halle Goethe, J.W.v. (1941) Maximen und Reflexionen (Hrsg.: J. Hecker). Koehler & Amelang, Leipzig Gordon, W.J.J. (1961) Synectics, the development of creative capacity. New York - Evanston - London Greguss, F. (1988) Patente der Natur: Unterhaltsames aus der Bionik. 2. Aufl., Verlag Neues Leben, Berlin Groß, M. (2001) Dichtung und Wahrheit. In: Nachrichten aus der Chemie 49 (Dez. 2001), S. 1389 363 8 Literatur <?page no="364"?> Gundlach, C., Nähler, H., Montua, S. (2002) TRIZ - Theorie des erfinderischen Problemlösens, www.triz-online-magazin.de, I / 2002 Gutzer, H. (1978) Mitdenken erwünscht - Neue Wege zur Ideenfindung. Reihe nlkonkret Nr. 3. Verlag Neues Leben, Berlin Haken, H., Haken-Krell, M. (1994) Erfolgsgeheimnisse der Wahrnehmung. Ullstein, Frankfurt/ M./ Berlin Hauschild, F. (1958) Pharmakologie und Grundlagen der Toxikologie. VEB Georg Thieme Verlag, Leipzig Hauschild, F., Görisch, V. (1963) Einführung in die Pharmakologie und Arzneimit‐ telverordnungslehre. VEB Georg Thieme Verlag, Leipzig Heidrich, G. (1986) Diskussionsbeitrag in einer KDT-Erfinderschule (Philadelphia bei Storkow) Heller, C. (1924) Das Süßwasseraquarium, ein Stück Natur im Hause. 3. Aufl., Verlag Quelle & Meyer, Leipzig Herb, R., Herb, T., Kohnhauser, V. (2000) TRIZ - Der systematische Weg zur Innovation. verlag moderne industrie, Landsberg a. Lech Herrlich, M. (1988) Erfinden als Informationsverarbeitungs- und -generierungspro‐ zeß, dargestellt am eigenen erfinderischen Schaffen und am Vorgehen in KDT- Erfinderschulen. Dissertation A, TH Ilmenau Heyde, E. (1980) In: Jugend und Technik 28 (1980) 3, S. 227, Berlin Hill, B. (1999) Naturorientierte Lösungsfindung - Entwickeln und Konstruieren nach biologischen Vorbildern. expert verlag, Renningen-Malmsheim Hinkel, H. M., Elsner, G. (2013) Erfinden ist genial - So sprengen wir unsere Denkschablonen. expert verlag, Renningen Hölter, H., Ingelbüscher, H., Gresch, H., Dewert, H. (1980/ 1982) Langzeit - Wäscher. DOS. 3 045 686 v. 4. 12. 1980, offengel. 22. 7. 1982 Holliger-Uebersax, H. (1989) Handbuch der Allgemeinen Morphologie. Manuskript‐ druck, copyright by Peggy Holliger-Uebersax. MIZ-Verlag, Zürich Horn, F. (1978/ 1979) Verfahren zur Reinigung von Abwässern. DOS. 2 808 961 v. 2. 3. 1978, offen gel. 6. 9. 1979 Hubert, W. (2002) Süßsaure Erfindung mit amtlichem Patent. In: Wirtschaftswoche Nr. 21 v. 16. 5. 02, S. 104 364 8 Literatur <?page no="365"?> Ideen für Ihren Erfolg (1995) Booklet erloschener DDR-Patente mit innovativem Wert. Qualifizierungs- und Strukturförderungsgesellschaft mbH, Genthin: S. 156 / 157, DD - PS Nr. 288 173 und 288 174 S. 158 / 159, DD - PS Nr. 273 040 S. 198 / 199, DD - PS Nr. 280 056 S. 218 / 219, DD - PS Nr. 262 275 S. 262 / 263, DD - PS Nr. 288 484 Ideen für Ihren Erfolg (1996) Booklet erloschener DDR-Patente mit innovativem Wert, Band 2. Qualifizierungs- und Strukturförderungsgesellschaft mbH, Gent‐ hin: S. 16 / 17, DD - PS Nr. 236 953 S. 168 / 169, DD - PS Nr. 298 218 S. 182 / 183, DD - PS Nr. 249 495 S. 230 / 231, DD - PS Nr. 256 568 S. 312 / 313, DD - PS Nr. 252 882 S. 314 / 315, DD - PS Nr. 254 067 Journal of Micromechanics and Microengineering (2005) 15, S. 210-214 (s.a.: www. wissenschaftonline.de/ abo/ ticker/ 787066) Jung, A., Nezik, A.-K., Rosenbach, M., Schulz, T. (2018) Angstträume. In: SPIEGEL Nr. 46 v. 10. 11. 2018, S. 66-71 Junkers, H. (1909/ 1910) Gleitflieger mit zur Aufnahme von Auftrieb erzeugenden Teilen dienenden Hohlräumen. D.R.P. 253 788 v. 03. 12. 1909, ert. 01. 02. 1910 Junkers, H. (1911/ 1915) Flugzeug. Oe. P. 70 628 v. 28. 01. 1911, ert. 15. 06. 1915 Junkers, H. (1920/ 1921) Wellblech für Bauwände an luftfahrzeugen, insbesondere zur Abdeckung von Tragflächen. Oe. P. 99 953 v. 27. 07. 1920, ert. 15. 12. 1921 Junkers, H. (1929/ 1930) An der Wand anzubringender, gasbeheizter Flüssigkeitser‐ hitzer. Schwz. Pat. 143 645 A v. 23. 05. 1929, ert. 30. 11. 1930 Karcev, V.P. (1979) Verteilte Rollen. In: neuerer 28 (1979), H. 11, S. 368, Berlin Klebe, I., Klebe, J. (1984) Durch die Augen in den Sinn. Deutscher Verlag der Wissenschaften, Berlin Koch, R. (1998) Das 80/ 20-Prinzip. Mehr Erfolg mit weniger Aufwand. Frank‐ furt/ M./ New York Kochmann, W. (1987) Rezension zur „Erfinderfibel“. In: Chemische Technik 39 (1987) 1, S.46, Leipzig 365 8 Literatur <?page no="366"?> König, F.v. (1988) Großkraft Wind weltweit nachgewiesen. Verlag C.F. Müller GmbH, Karlsruhe Koller, R. (1999) Produktinnovation und Konstruktionslehre. In: Tagungsband „The hidden pattern of innovation“ des 4. WOIS-Symposiums, 11. 6. 1999, FH Coburg Kollontai, A. (1980) Ich habe viele Leben gelebt. Dietz-Verlag, Berlin Koltze, K., u. Souchkov, V. (2017) Systematische Invention - TRIZ in der Produkt- und Prozessentwicklung. 2. Aufl., Carl Hanser Verlag, München Kraus, K (1974) Anderthalb Wahrheiten. Aphorismen. 2. Aufl. Rütten & Loening, Berlin Kroll, J. (2019 a): Wird KI jemals ein Bewusstsein haben? In: Elektronik 10 / 2019, S. 12 Kroll, J. (2019 b): Neuronale Netze sind strohdumm. In: Elektronik 12 / 2019, S. 14 Krug, H.F. (2003) Nanopartikel: Gesundheitsrisiko, Therapiechance? In: Nachr. aus der Chemie 51, Dez. 2003, S. 1241-1246. Hrsg. u. Verlag: Gesellschaft Deutscher Chemiker, Frankfurt/ M. Kursawe, W., Zobel, D., Hornauer, W., Nagel, M., Burkhardt, M., Rathmann, H. (1983/ 1985) Vorrichtung zum Abscheiden feinteiliger Flüssigkeitströpfchen aus einem Gasstrom. DD-PS 225 844 v. 26. 7. 1983, ert. 7. 8. 1985 Langbein, K., Fochler, R. (1997) Einfach genial. Die 7 Arten der Intelligenz. F. Deu‐ ticke Verlagsgesellschaft, Wien (Lizenzausgabe 1999 im Bastei-Verlag Gustav H. Lübbe, Bergisch Gladbach) Lem, S. (1976) Robotermärchen. 2. Aufl., Eulenspiegel-Verlag, Berlin Lem, S. (1978) Sterntagebücher. 4. Aufl., Verlag Volk und Welt, Berlin Lengren, Z. (1980) Das dicke Lengren-Buch. Hrsg.: H. Arnold. Eulenspiegel-Verlag, Berlin Lichtenberg, G. Chr. (1961) Homo sapiens. Aphorismen. Eulenspiegel-Verlag, Berlin Linde, H., Hill, B. (1993) Erfolgreich erfinden. Widerspruchsorientierte Innovations‐ strategie für Ent wickler und Konstrukteure. Hoppenstedt Technik Tabellen Verlag, Darmstadt Linde, H., Mohr, K.-H., Neumann, U. (1994) Widerspruchsorientierte Innovations‐ strategie (WOIS) ein Beitrag zur methodischen Produktentwicklung. In: Kon‐ struktion 46, S. 77-83 Linde, H. (1999) Einführung zum 4. WOIS-Symposium „The hidden pattern of innovation“, 11. 6. 1999, FH Coburg Linde, H., u. Mitarbeiter (2002) Taschen-WOIS 2002. WOIS Institute for Innovation Research, Coburg 366 8 Literatur <?page no="367"?> Loriot und das Komische (in: LORIOT. Diogenes, Zürich 1993, S. 11/ 12) Loriot (2003) Bundestagsrede. In: Loriot und die Künste, S. 73. Diogenes Verlag AG, Zürich Mann, D., Domb, E. (1999) 40 Inventive (Business) Principles with Examples. www.triz-journal.com/ archives/ 1999/ 09/ index.htm Mann, Th. (1974) Der Zauberberg, S. 779. Aufbau-Verlag, Berlin und Weimar Mc Gilvery, J.D. (1953) ASTM-Bulletin 191, S. 22 Mehlhorn, G., Mehlhorn, H.-G. (1977) Zur Kritik der bürgerlichen Kreativitätsfor‐ schung. VEB Deutscher Verlag der Wissenschaften, Berlin Merkenich, K. (1965) In: Seifen - Öle - Fette - Wachse 91, S. 319 Mirtsch, F., Büttner, O., Matschiner, F. (1996/ 2004) Verfahren zur oberflächen‐ schonenden, versteifenden Strukturierung dünner Materialbahnen. DE-PS (AN) 96914934 v. 18.04.1996/ 15.10.2002 Mirtsch, F., Büttner, O., Ellert, J. (1997/ 2004) Verfahren zum Beulstrukturieren dünner Materialbahnen. DE-PS (AN) 97916376 v. 22.03. 1997, veröff. 15. 02. 2002 Mittring, G. (2003) Meine Leidenschaft - Meine Leiden. In: Fleiß, J. (2003) Hochbe‐ gabung und Hochbegabte, S. 168. Tectum-Verlag, Marburg Müller, J. (1994) Akzeptanzprobleme in der Industrie. In: Pahl, G. (Hrsg.): Psycholo‐ gische und pädagogische Fragen beim methodischen Konstruieren, S. 247 - 266. Verlag TÜV Rheinland, Köln Müller, S. (2006) Methodisches Erfinden im Personalmanagement. Gabler Edition Wissenschaft, Deutscher Universitätsverlag, Wiesbaden Nachtigall, W., Blüchel, K.G. (2000) Das große Buch der Bionik. Deutsche Verlags‐ anstalt, Stuttgart/ München Nachrichten aus der Chemie (2005) Mikrobürsten mit Nanoborsten. 53. Jg., Sept. 2005, S. 860. Hrsg. u. Verl.: Gesellschaft Deutscher Chemiker, Frankfurt/ M. Nachrichten aus der Chemie (2006) Nanopartikel aus der Kugelmühle. 54. Jg., August 2006, S. 795. Hrsg. u. Verl.: Gesellschaft Deutscher Chemiker, Frankfurt/ M. Neubauer, U. (2006) Forscher in geheimer Mission. In: Nachrichten aus der Chemie, 54. Jg., August 2006, S. 759. Hrsg. u. Verl.: Gesellschaft Deutscher Chemiker, Frankfurt/ M. „Neues Deutschland“ (1983) Was sonst noch passierte. 10. 2. 1983, S. 5, Berlin „neuerer“ (1980) Rätselgalerie am Seeufer („der neuerer“, Jg. 29, H. 12, Berlin) 367 8 Literatur <?page no="368"?> Orloff, M. A. (2002) Grundlagen der klassischen TRIZ. Ein praktisches Lehrbuch des erfinderischen Denkens für Ingenieure. Springer-Verlag, Berlin-Heidelberg Osborn, A. (1953) Applied Imagination - Principles and Procedures of Creative Thinking, New York Otsuka, S. (1985/ 1986) Liquid drain apparatus. J.P. 61-222 584 (A) v. 3. 10. 1986. Appl. No. 60-63327 v. 29. 3. 1985 Otto, P. (1920) Erfinderfibel. Deutsche Verlags-Anstalt, Stuttgart und Berlin. Darin: S. 152/ 153: Entfernungsmesser für die Landung von Luftfahrzeugen. DRP 314 247 S. 46/ 47: Spirituskocher, dessen Flamme beim Abnehmen des Kochgefäßes ausge‐ löscht wird. DRP 315 072 S. 72/ 73: Selbsttätige elektrische Beleuchtungsvorrichtung für Abtritträume. DRP 313 905 Paasche, N. (2019) Persönliche Mitteilung Parkinson, C.N. (1966) Parkinsons Gesetz und andere Untersuchungen über die Verwaltung. Rowohlt Taschenbuchverlag GmbH, Reinbek bei Hamburg Pause, M. (1984) Der Trick mit dem Seil. In: neuerer 33. Jg., S. 147, Berlin Perkins, D. (2001) Geistesblitze. Innovatives Denken lernen mit Archimdes, Einstein & Co. Campus-Verlag, Frankfurt/ New York Peter, L.J., Hull, R. (1972) Das Peter-Prinzip oder Die Hierarchie der Unfähigen. Rowohlt Taschenbuchverlag, Reinbek bei Hamburg Rädecker, W., Graefen, H. (1956) Betrachtungen zum Ablauf der interkristallinen Spannungsrißkorrosion weicher unlegierter Stähle. In: Stahl u. Eisen 76, H. 24, S. 1616-1626, Düsseldorf Rechenberg, J. (1973) Evolutionsstrategie - Optimierung technischer Systeme nach Prinzipien der biologischen Evolution, Fromann-Holzboog, Stuttgart Reichel, H.-R. (1999) Expert Praxislexikon Technische Schutzrechte. 500 Begriffe von A-Z, für den Praktiker ausgewählt. expert verlag, Renningen Rindfleisch, H.-J., Berger, W. (1983/ 1988) Vorrichtung für einen automatischen Schleifkörperwechsel DD-PS 256 097 v. 15. 08. 1983, ert. 27. 04. 1988 Rindfleisch, H.-J., Thiel, R. (1986) Programm zum Herausarbeiten von Erfindungs‐ aufgaben. Schulungsmaterial, Bauakademie der DDR. Manuskriptdruck, Berlin Rindfleisch, H.-J., Thiel, R. (1989) Programm „Herausarbeiten von Erfindungsauf‐ gaben und Lösungsansätzen in der Technik“ In: Baustein KDT-Erfinderschule, Lehrbrief 2. KDT, Berlin 368 8 Literatur <?page no="369"?> Rindfleisch, H.-J., Thiel, R. (1994) Erfinderschulen in der DDR. trafo-verlag. dr. wolfgang weist, Berlin Sakai, T. (1982/ 1983) Flocculation Tank. J.P. 58 205 507 (A) v. 24. 05. 1982, ausg. 30. 11. 1983. Appl. No. 57 - 86557 Schenk, O. (1982) TV-Sendung v. 23. 1. 1982, NDR III Schlicksupp, H. (1983) Innovation, Kreativität und Ideenfindung. 3. Aufl., Vogel- Verlag, Würzburg Schnetzler, N. (2004) Die Ideenmaschine. 3. Aufl., Wiley VCH Verlag GmbH & Co. KgA, Weinheim Schipper (2018) In: www.adzine.de>2018/ 11>artifical-creativity-kann-kuenstlicheintelligenz-krativ-sein 2. November 2018 Schmitt, E. (1974) Berufslexikon: Karikaturen. 4. Aufl., Eulenspiegel-Verlag, Berlin Schmitt, E. (1981) Berufslexikon: Karikaturen. 6. Aufl., Eulenspiegel-Verlag, Berlin Schnetzler, N. (2004) Die Ideenmaschine. WILEY-VCH Verlag GmbH & Co. KGaA, Weinheim Schollmeyer, J. (2018) Persönliche Mitteilung Schrauber, H. (1985) Der Generationswechsel läßt sich programmieren. In: Techni‐ sche Gemeinschaft 33, H. 3, Berlin Schreier, W., Schreier, H. (1978) Thomas Alva Edison. Bd. 23 der Reihe „Biographien hervorragender Naturwissenschaftler, Techniker und Mediziner“. B.G. Teubner Verlagsgesellschaft, Leipzig Schubert, J. (1984) Physikalische Effekte. 2. Aufl., Verlag Physik, Weinheim/ Berg‐ straße Seckel, A. (2004) Das große Buch der Optischen Illusionen. Tosa-Verlag, Wien Seckel, A. (2005) Große Meister der Optischen Illusionen. Von Arcimboldo bis Kitaoka. Tosa-V., Wien Seiffarth, J., Zobel, D. (1968) Zur Bestimmung des Anteiles an Phase I im technischen Natriumtriphosphat. In: Chemische Technik 20, S. 490-491, Leipzig Shub, L. (2006) Wie viele Väter hat die TRIZ? In: www.triz-online-magazin, Ausgabe 2 / 2006 Siems, H. (1994/ 1996) Verfahren zum Entgiften phosphorhaltiger Massen. DE - PS 4 435 629 C1 v. 5. 10. 1994, ert. 2. 5. 1996 Simon, D. (1976) Eine ganze Milchstraße von Einfällen, S. 130. Aphorismen von Lichtenberg bis Raabe. Hinstorff, Rostock Socher, R. (2019: Natürlichere Gespräche mit der Maschine. In: SPIEGEL Nr. 27 v. 29.06.2019, S. 52 369 8 Literatur <?page no="370"?> SPIEGEL (2004) Strom aus der Zeltplane. Nr. 28 v. 5. 07. 2004, S. 145 Schlak, M.: Leicht zu täuschen. In: SPIEGEL (2019) Nr. 25 v. 15. 06. 2019, S. 95 Stahl, W. (1979/ 1981) Anordnung zur Filtration. DOS 2 947 329 v. 23. 11. 1979, offengel. 27. 5. 1981 Strittmatter, E. (1985) Schriftsteller der Gegenwart, Bd. 3. Verlag Volk und Welt, Berlin Strong, J. (1964) Praktische Konstruktion von geraden Linien. In: Engineering and Science, California Inst. of Technology, May 1964 Süskind, P. (2003) Loriot und das Komische. In: Loriot und die Künste. Diogenes Verlag AG, Zürich Suhr, C. (2000) Patentliteratur und ihre Nutzung. Der Leitfaden zu den Quellen technischer Kreativität. expert verlag, Renningen Terninko, J., Zusman, A., Zlotin, B. (1998) TRIZ - Der Weg zum konkurrenzlosen Erfolgsprodukt. (Hrsg.: Herb, R.) verlag moderne industrie, Landsberg a. Lech Thornagel, N. (1985/ 1987) Atmendes Haus bzw. atmende Verkehrsfläche. DOS 3 532 503 v. 12. 9. 1985, offengel. 19. 3. 1984 Trolle, H. (1994) “The Power of Synergy” in Small Enterprises. In: Creativity and Innovation - The Power of Synergy, S. 266. Hrsg.: Geschka, H., Moger, S., Rickards, T., Proceedings of the 4-th European Conference on Creativity and Innovation, Darmstadt, 25.-28. August 1993 Tucholsky, K. (1972) Lerne lachen ohne zu weinen. Auswahl 1928-1929. Verlag Volk und Welt, Berlin Ulmann, G. (1968) Kreativität. Beltz-Verlag, Weinheim - Berlin - Basel VDI-Nachrichten (2006) Bei Hochwasser schließt sich das Klappschott durch den Wasserdruck. In: VDI-Nachrichten v. 15. 09. 2006, Düsseldorf Wichmann, E. (2005) Filter für alle Diesel. In: Apotheken-Umschau v. 1. Juni 2005 A, S. 10 Wilsmann, A.C. (1943) Wunderwelt unter der Tarnkappe. 2. Aufl., S. 127. Fels Verlag Dr. Wilhelm Spael K.-G., Essen Wirtschaftswoche (2006) Genhefe fürs Auto. Nr. 41 v. 9. 10. 2006, S. 90 Wirtschaftswoche (2004) Nr. 10 v. 26. 02. 2004, S. 182 370 8 Literatur <?page no="371"?> Ziegler, P. (1919) Schnellfilter - ihr Bau und Betrieb. Verlag von O. Spamer, Leipzig Zobel, D., u. Matthes, F. (1967) Verfahren zur Aufarbeitung von Phosphorschlamm. In: Chem. Techn. 19 (1967) S. 762 - 765 Zobel, D., Kuchler, K. Oppermann, H. u. Soyka, H. (1969) Verfahren z. Herstellung von Natriumtriphosphat. DWP (DDR) 83 975 v. 22. 12. 1969, ausg. 20. 8. 1971 Zobel, D. (1972) Theorie und Praxis der Phosphitpyrolyse. In: Chem.-Techn. Um‐ schau (Piesteritz) 4. Jahrgang, Heft 2, S. 1 - 182 (Hrsg.: Betriebssektion der Kammer der Technik) Zobel, D. (1976/ 1980) Verfahren zur Verminderung bzw. Vermeidung der Schaum‐ bildung bei der techn. Durchführung chemischer Reaktionen. DD - PS. 121 030 v. 12. 7. 1976, ert. 28. 5. 1980 Zobel, D. (1976) Über die Abfassung von Patentschriften. In: Chemisch-Technische Umschau 8, H. 2, Piesteritz (Hrsg.: VEB Kombinat Agrochemie Piesteritz, Be‐ triebssektion der KDT) Zobel, D., Jochen, R., Rust, R. (1979/ 1980) Verfahren und Vorrichtung zur Filtration unter autogenem Vakuum. DD - PS. 214 904 v. 10. 8. 1979, ert. 20. 8. 1980 Zobel, D., Jochen, R. (1982/ 1984) Anordnung zur Destillation unter vermindertem Druck. DD-PS 208 453 v. 23. 2. 1982, ert. 2. 5. 1984 Zobel, D. (1982) Systematisches Erfinden in Chemie und Chemischer Technologie. In: Chemische Technik 34, H. 9, S. 445-450, Leipzig Zobel, D., Gisbier, D., Pietzner, E., Mühlfriedel, I. (1984/ 1985) Verfahren und Vorrich‐ tung zum Entgasen von Flüssigkeiten. DD - PS. 224 221 v. 6. 6. 1984, ausg. 3. 7. 1985 Zobel, D. (1985) Erfinderfibel - Systematisches Erfinden für Praktiker. Deutscher Verlag der Wissenschaften, Berlin (2. Aufl. 1987) Zobel, D. (1990) Der Piesteritzer Hypophosphitprozess. In: Chem. Techn. 42 (1990) S. 47 - 51 Zobel, D. (1991) Erfinderpraxis - Ideenvielfalt durch Systematisches Erfinden. Deut‐ scher Verlag der Wissenschaften, Berlin Zobel, D. (1999) Die Altschuller - Methodik und die Prinzipien zum Lösen Techni‐ scher Widersprüche. In: „The hidden pattern of innovation“, 4. WOIS-Symposium, 11. 06. 1999, FH Coburg Zobel, D. (2006 (a)) Systematisches Erfinden, 4. Aufl. expert verlag, Renningen Zobel, D. (2006 (b)) TRIZ FÜR ALLE. Der systematische Weg zur Problemlösung. expert verlag, Renningen 371 8 Literatur <?page no="372"?> Zobel, D. (2007) Kreatives Arbeiten. Methoden - Erfahrungen - Beispiele. expert verlag, Renningen Zobel, D. (2019) Systematisches Erfinden, 6. überarbeitete Aufl., expert verlag, Tübingen Zobel, D., u. Hartmann, R. (2016) Erfindungsmuster. TRIZ: Prinzipien, Analogien, Ordnungskriterien, Beispiele. 2. Aufl., expert verlag, Renningen Zobel, D. (2018 (a)) TRIZ FÜR ALLE - Der systematische Weg zur Problemlösung. 4. Aufl., expert verlag, Renningen Zobel, D. (2018 (b)) Verfahrensentwicklung und Technische Sicherheit in der Anor‐ ganischen Phosphorchemie. 2. Aufl., expert verlag, Renningen Zobel, D. (2019) Die Geschichte des Phosphorsektors im Stickstoffwerk Piesteritz. In: Heimatkalender 2019 Lutherstadt Wittenberg & Landkreis Wittenberg. Drei Kastanien Verlag, Wittenberg Zweig, K. (2019) Ein Algorithmus hat kein Taktgefühl. Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. 3. Aufl., Wilhelm Heyne Verlag, München 2019 Zwicky, F. (1962) Morphology of Propulsive Power. Monograph No. 1 of the Society for Methodological Research. Pasadena, California Zwicky, F. (1966) Entdecken, Erfinden, Forschen im morphologischen Weltbild. Droemersche Verlagsanstalt Th. Knaur Nachf., München/ Zürich Zwicky, F. (1971) Jeder ein Genie. Herbert Lang, Bern, und Peter Lang, Frankfurt/ M. 372 8 Literatur <?page no="373"?> 9 Register Abfallstoffe 297 „Abmessungen, Zeit, Kosten“ 60, 166, 294, 296, 299, 304f. Abstraktion 203 Abtrennen 139 Aggregation, Anhäufung von Merkmalen 127, 250 Aggregatzustand 125 Algorithmus 44, 57, 70, 113, 197, 308, 312-315, 317, 320 Algorithmus zum Lösen erfinderischer Aufgaben (ARIZ) 44f., 47, 57, 59, 61, 69ff., 92, 96, 99f., 113, 192, 197f., 294 Allgemeinwissen 311 Alternative 168, 256, 267 Alternativwaschmittel 157 Alterung, „Alterung“ des Lichtes 225 Amphibienmensch 243 Analogie 42, 90f., 119, 125, 158, 161, 210ff., 237, 246, 250, 286, 315, 329, 341 Analogisieren 41, 286 Analogrechner 316 Analytisches Stadium (s. a. Systemanalyse) 58 Anmeldung 128, 162, 168, 210, 232, 288, 323f., 328f., 332, 334f., 339f., 347, 352 Antagonismus 129, 131 Aquarienbelüftung 161 Äquipotenzialprinzip 63 Arbeitnehmererfinderrecht 61, 69f., 137, 195, 246, 252, 274, 358 Arbeitsrichtung 48, 60, 95, 152, 156, 312 Arbeitsumgebung 30, 62f., 145ff., 297 Aspektverschiebung (de Bono) 239 Asperger-Syndrom 310 Assoziation, Assoziieren 19, 28, 42 Asymmetrie 62, 139 „Aufpfropfen“ von Funktionen 250 Auftrieb 84-87, 146, 170, 174, 279f., 323, 365 Auge als bionisches Vorbild der Kamera 39f., 60, 132, 241, 244, 259f., 265 Ausführungsbeispiel 342, 349 Autogenes Vakuum 327 Axiom 230 AZK-Operator (Abmessungen, Zeit, Kosten) 167 Bauchgefühl 246, 308 Bedürfnis 133, 193, 335 Beobachtungsfähigkeit 19 Bernoulli-Effekt 290 Bescheidene Morphologie 83f. Betriebsblindheit 92, 147, 195 Bewegungstäuschung 259 Beweiszeichen, Hilfskriterien zur Beurteilung der Schutzfähigkeit 336 Bewusstsein 317f. Bezugsbeispiel 342, 348 Bilderkennungsrate 314 Billige Kurzlebigkeit statt teurer Langlebigkeit 66 Bionik 39, 41f., 44, 212, 306 Biotechnologie 306 Blasenzähler 330 Blickwinkel 10, 88, 104, 224 Blindheit der Fachwelt 335 <?page no="374"?> Blödel-Standard 237, 266 Bootlegging 141 Brainstorming, Ideenkonferenz 37, 39, 42, 44, 78ff., 89, 92, 223 Brückenbildung bei Schüttgütern 154 Bügeleisen 73f. Chlorophyll für Kopierzwecke (AZK- Beispiel) 300, 303f., 306 Ciliarmuskel 40 Computerprogramm 57, 69, 308, 323 Deduktion 202f. Defekt, Defektliste 8, 198 Dekompression 331 Demister 154f. Denken 13f., 23, 36, 43, 46, 60, 70, 88, 90, 96, 101, 108, 121, 132, 135, 144, 146, 166, 169, 202f., 220, 231, 234, 245f., 273, 290, 294, 315, 331 Denkfalle 90 Denkweise 13, 74, 80, 96, 142, 158, 228, 230, 235, 294, 315 Dialektik, Dialektischer Widerspruch) 239, 313 Dieselruß 118 Dispersitätsgrad 163f. Doppelsinnigkeiten 234f. Doppler-Effekt 225 Dosiergefäß 178f. Dotieren von Halbleitern 294 Dotieren von Silicium-Wafern 168 Drainageapparat 162 Drehströmungsentstauber 154 Druckdifferenz 145, 173, 334 Durchschnittsfachmann 168, 329, 341, 351 Dynamisierung 64 Effekt 59, 80, 84, 98, 108f., 111, 117, 128, 130, 133f., 136, 140, 148, 150, 172, 194f., 198, 222f., 225f., 231, 255, 259, 289, 298f., 304, 321, 326, 332, 343 Eigenmotivation 30f., 80 Eigenvakuum 325 Einbettungstäuschung 258 Einbildung 18, 170 Eindecker 183, 287f. Einfachheit 187ff. Einsteigermodus 338 Einsteigerrecherche 338 Elastische Umhüllungen und dünne Folien 67 Empathie 42, 71 Enge Gedankenschlucht 92 Entdeckung 20, 90, 134f., 227f., 314, 332, 334 Entfernungsmesser 181f. Entwicklungsaufgabe 83, 285 Erfinderische Leistung 215, 336 Erfinderschulen 52, 193 Erfindung 16, 51, 55, 70, 104, 130, 134, 196, 270, 280, 314, 321f., 332, 339f., 342f., 345f., 348, 350, 353, 358 Erfindungsaufgabe 52, 195 Erfindungshöhe 33, 128, 168, 215, 328, 340, 351 Erfindungskunst 189 Erfindungsmethodik 193, 279, 284, 286, 293, 359 Erfindungsmuster 199, 274 Eselsbrücke (Mnemotechnik) 26, 149 Eutrophierung von Gewässern 156, 204ff. Expertenrecherche 338 Extrembedingungen 295 374 9 Register <?page no="375"?> Fachliteratur 111, 290f., 336 Fachmann 48, 60, 87, 94, 159, 208, 215, 226, 332, 335, 357 Fachmännisches Handeln 51 Fahrweise 119, 141, 331f. Fehler 7, 9, 95, 160, 173, 198f., 228, 318 Feinstaub 115 Feinstmahlung 117, 164f. Filter 144, 154 Filtration 325ff., 370f. Fischauge 39f. Flüssigkeitssäule („hängende“) 186, 326, 331 Fotografie 53ff., 109, 167, 245, 297 Fragen 13, 18, 30, 58, 60, 86, 89, 99, 107, 110ff., 121, 136, 188, 197, 200, 204, 216, 239, 242, 246, 263, 265f., 278, 292, 319 Funktion, Funktionalebene 46, 65, 73, 98, 108, 111, 121, 125f., 128, 152, 155, 181, 200, 212, 215, 295, 300, 316, 331, 337 Funktionsmuster 101, 231f., 251 Funktionsumkehr 63, 137 Gadgets 44, 81 Galvanisierung 133 Ganzmetallflugzeug 183 Gärröhrchen 334 Gasbadeofen 275ff., 291 Gasbrennschneiden 253 Gassperre 330 Gebrauchsmuster 128, 322, 351-354 Gebrauchsmusterrolle 352 Gebrauchsmusterschutz 354 Gebühr 352, 356 Gedächtnis 27, 310 Gegenmasse 62 Gehirn 18, 26f., 265, 278, 307ff., 315f. Generationenbetrachtung 72 Genie, „verkanntes“ Genie 21, 32, 76, 83, 278, 310 Gentechnologie 207 Geschichte eines technischen Systems 26, 72, 100f., 133, 186, 216, 230, 291, 295, 320 Geschwindigkeitssynchronisation 41 Goldkörnchen 44, 81 Goldsuche 90 Grundgedanke 331 Grundidee 20, 70, 101 Hauptkriterium 328, 336, 352 Hilfskriterien („Beweiszeichen“) 215, 322, 329, 336 Historische Methode 101f. Hochkreative 15, 19, 126 Hologramm 298 Homogenität 67 Homöopathie 209f. Humor 15, 25, 77, 233ff. Hydratationsgeschwindigkeit 159 Hydrodynamisches Paradoxon 221, 225 Hypothese 225 Hysterese 253ff., 266 Ideale Maschine 45ff. Ideales Endresultat („IER“) 57, 61, 109, 166, 288 Ideengeschichtliche Studien 273f. Ideenkonferenz 37 Ideensammlung (Ideenbank) 28 Imagination, bildhaftes Vorstellungsvermögen 21 Impulswirkung 64 Induktion 202 Induktives Denken 202 375 9 Register <?page no="376"?> Information 26, 142, 309, 316, 340 Innovationscheckliste 96, 99, 198 Innovationsmanagement 244 Innovative Prinzipien 246 Intelligenz 7ff., 15, 88, 220, 271, 307, 309ff., 314ff., 318f. Internationale Patentklassifikation 336 Intuition 42, 56, 71, 83, 245, 317 Kamera 39f., 55 Kammer der Technik 52, 151, 193 Kapillarität 108, 224 Karikaturen 231, 233, 237, 246, 252, 270 Kernfusion 223 Kettenglied, schwächstes Kettenglied 213 Kiemenapparat 244 Kippfiguren 253, 255, 262 Kitaokas wirbelnder Strudel 260 Klappschott 186 Klassifikation 337 Kleine Ursache, große Wirkung 167, 169 Kohleelektrodenmasse 115 Kohlefadenlampe 76 Kombination 19, 39, 57, 66, 79, 84, 86, 127-131, 157, 166, 180, 205f., 234, 245, 250, 295, 316 Kommunikation 23, 103, 269, 311f. Komplementärverfahren 133 Kompression 331 Kompromiss 52, 128, 250, 268 Konflikt (technischer) 109, 111 Konstruktiv-Paradoxe Entwicklungsforderung 73 Kopfrechnen 22 Kopieren 66, 304 Kopierverfahren, Kopiermaterialien 295f., 299 Kopplung (von Funktionen) 55, 62, 296, 318 Kosten 58, 60, 109, 141, 166, 237, 240, 294, 304, 306, 351f., 355, 357 Kostenlosigkeit 297, 300, 303 Kreativitätsmaximum 218 Kreativitätsmethoden 35, 42, 44 Krebs-Mehrschritt-Therapie 227 Kriterien 10, 99, 193, 297, 329, 336 Kritik 37, 78, 80, 342, 344f. Kugelähnlichkeit 63 Künstliche Intelligenz („KI“) 10, 307, 309, 313f., 316-320 Künstliche Kreativität („KK“) 307, 309f., 314, 318 Laboratoriumslösungen 158 Labyrinth-Dichtung 139 Langzeit-Wäscher 139 Lärmbekämpfung (mittels Anti- Lärm) 150 Laufdauer 351 Lebensgeschichte technischer Systeme 102 Leistung 18, 70, 104, 174, 217f., 314f., 329, 347, 349, 351, 357f. Leistungsreserve 23, 104, 158 Lichtbogen 143 Linearmotor 173f. Lizenz, Lizenzvergabe 322, 355, 357 Lizenzanalogie im 358 Logik 17f., 39, 42, 237, 293 Lösungsprinzipien, Lösungsstrategien 59, 70f., 73f., 100, 110, 113, 126 Lösungsvarianten 50, 315 Lösungsversuche 108, 111 376 9 Register <?page no="377"?> Luftschiff 84ff., 88 Magnet, Magnetismus 120 Makroebene 155, 158, 162 Makroobjekt, Makrosystem 155f. Marken 322 Matrix, Altschuller-Tabelle 69, 138, 199 Matrjoschka (russ. Steckpuppe) 62 Mauerwerkstrockenlegung 108 Maximum 166-169, 327 Mehrzwecknutzung 170, 172, 174, 178, 285 Menschenverstand (,‚gesunder“) 82, 219 Methodisches Minimum 107 Mikroebene 155f., 158, 162 Mikroobjekt, Mikrosystem 155f. Minimalsystem 166-169, 198, 327 Missbrauch 239, 269 Mittel, Technische Mittel der Erfindung 17, 20, 26, 28, 46, 51, 56, 59, 63, 72, 84, 100f., 134, 136f., 149, 159, 184, 186, 193, 195, 208ff., 219, 314, 321f., 330, 342, 346, 350, 353 Mittel-Zweck-Zusammenhang bei Erfindungen 17, 101, 134, 137, 149, 219, 314, 321 Mnemotechnik 26f. Montgolfiere 146 Morphologie 37, 42, 44, 83f., 86f. Morphologische Tabelle („Morphologische Matrix“) 38f., 81, 84f., 87f., 108 Motivation 18, 27, 30, 160, 235 „Müll rein, Müll raus“ - Prinzip 28, 79 Muster 26, 40, 54, 89, 112, 175, 186, 212, 242, 255ff., 261, 266, 275, 306, 309, 313, 315f., 322, 341, 350f. Mustererkennung 311, 315 Nanotechnik 165 Natriumhypophosphit 113, 122, 187 Neuheit 99, 323f., 328, 339f. Neuheitsprüfung 352 Neuheitsrecherche 338 Neuronale Netze 318 Nicht-Silberhalogenidfotografie 54 Nicht vollständige Lösung 152, 167 Niveau 9, 32f., 89, 121, 127, 157, 213, 219, 274, 296, 314f. Nurflügel-Flugzeug 279, 288, 290 O 2 -Mehrschritt-Prophylaxe 227 Oase der falschen Verheißung 90f., 141 „Occams razor“ 188 Offenlegungsschrift 339 Offensichtlichkeitsprüfung 339 Öl-Wasser-Emulsion 170f. Operationsfeld des Erfinders 194 Operatives Stadium 59 Optimierung 39, 51, 159 Optimierungsaufgabe 51, 194 Optische Täuschung 264 Optische Wahrnehmung 253 Oxydationsmittel 68 Paradigma 228 Pareto-Prinzip 29, 94f. Parodien 240 Patentanspruch 334, 342, 350 Patentdeutsch („Patentchinesisch“) 341, 343 Patentierbarkeit 32, 339 Patentjäger 32 Patentschrift (Formulierung) 10, 16, 293, 337, 339, 341f., 349ff. 377 9 Register <?page no="378"?> Patentspruchpraxis 101, 129, 168, 250, 334 Penrose-Treppe 261 Persönliche Analogie 41 Phänomene 43, 266, 269, 321 Phantasie (Fantasie) 17f., 87, 317, 347 Phantastik 233, 243 Phasenübergang 219 Phosphorschlamm 112, 187, 324, 330 Physikalische Effekte 134, 136, 321 Plagiat 19 Poliereinrichtung 120 Positivkopie von einer Positivvorlage 298, 305 Pralinenrezept 130 Präzisierung der Aufgabe 192 Prinzipien (zum Lösen technischer Widersprüche) 10, 39, 56f., 59, 61, 68ff., 100, 113, 137-140, 146, 167, 169, 180f., 192, 195, 198, 203, 220, 237, 243, 246f., 249, 252, 266, 273, 276, 292ff., 307, 342 Priorität 352 Probekörper 281, 289 Problemsensibilität 21 Prognose 222 Provokation 228 Provokationseffekt 104, 151 Prozessionsmarionette 25 Prüfung 69, 210, 232, 339f., 352 Prüfungsantrag 340 Pseudo-Umkehrung 145 Qualität 28, 37, 62, 78f., 122, 135, 164, 193, 205f., 264, 297 Quantität 78, 135, 193 Querbeziehungen 10, 263 Recherche, Neuheitsrecherche 16, 109, 326, 337ff. Regel, „85%-Regel“ 37, 78, 94f., 103f., 107, 140, 142, 148, 152, 203, 213f., 276 Regenwürmer 343 Rohphosphat 164 Rollenverteilung (im Team, nach Karcev) 148 Rotverschiebung (nach Hubble) 225 Rückentwicklung der Technik 216, 247 Rückkopplung 31, 65, 229 Rückwärtsarbeiten 56 Rührwerksreaktor 330, 333 Satire 15, 233, 240, 242, 266 Sauerstofftherapie 227, 229 Savant 310 Schädlicher technischer Effekt 60 Schaumbildung 177, 330, 332 Schere im Kopf 245 „Schere im Kopf “ 128, 245 Schleifkörperwechsel 41 Schneller Durchgang 139, 167, 248f. Schrödersche Treppe 255f. Schüttgut 173 Schutzfähigkeit 101, 129, 149, 162, 315 Schutzgas 330 Schutzrecht 19, 351f. Schutzwirkung 354 Schutzwürdigkeit 33 Schwachstellenanalyse 72, 214 Schweizer Militärmesser 128 Schwenkflügel 124 Schwierigkeiten, besondere technische Schwierigkeiten 37, 70, 90, 110, 121, 124, 215, 224, 243, 283, 292, 335, 337 Sekundärideen 37, 78 Selbstbedienung („Von Selbst“) 66 Selbstkritik 231, 251 378 9 Register <?page no="379"?> Selbstorganisation 175, 187, 265 Selbstschärfendes Werkzeug 176 Semantische Intuition 42, 233, 244 Sender Jerewan 238 Separationsprinzipien 55, 70, 100, 121, 126f., 237, 274 Silberhalogenidfotografie 53f., 109 S-Kurve 103 Speicherung 309 Spezialschrauben 236 Spinner 32, 246 Spirituskocher 183, 185 Spitzeneffekt 133 Spontanideen 35, 43, 46, 99, 198, 220 Spornfragen 37, 79 Standard 119, 206, 236, 313 Standardlösungen 70, 100, 114, 118f. Standards zum Lösen von Erfindungsaufgaben 70, 100, 119, 237, 274, 296 Stand der Technik 16, 183, 193, 245, 290f., 294f., 339f., 342-345 Steinzeitkünstler 132 Stoff-Feld-Regeln 70, 119, 274 Strömungssensor 179f. Suchfeld (des Durchschnitts‐ fachmannes) 78, 93 Suchraum 42, 80, 93 Surrealismus 234 Symbolische Analogie 41 Synektik 41f., 44, 71, 73 Synthetisches Stadium 59, 69 Systemanalyse 79ff., 92, 94ff., 99, 107f., 110ff., 150, 191ff., 195-200, 223 Tagesaufgaben 29 Tapetenwechsel 146 Temperature Rise Test (“TRT”) 159 Theorie zum Lösen erfinderischer Aufgaben (TRIZ) 45, 52, 57, 71, 77, 92, 96, 100, 113, 138, 186, 192, 243, 251, 270f., 273ff., 291f., 312, 315, 331 Thermodiffusionsintervalltrocknung 117 Thixotropie 124 Torpedo 124, 145 Trägheitsvektor („TV“) 47, 80 Transport, idealer Transport 49, 115, 121, 174, 200, 214, 219f. Treibhauseffekt 226 Trial and Error 35, 92 Triebkraft von Prozessen 186, 215 Tripolyphosphat, Pentanatriumtriphosphat 163 Trommelzellenfilter 143f. überbestimmte Aufgabenstellung 48, 50, 192 Überdüngung 157, 204 Überraschung, „überraschend wurde gefunden“ 324 Übertragungsmöglichkeit 169, 274 Umgebung, Verändern der Umgebung 14f., 18, 22, 24, 64, 120, 146f., 169, 265 Umkehrdenken 266ff. Umkehreffekt 134ff. Umkehrformulierungen 139, 266f., 269 Umkehrung 8, 79, 131-134, 137ff., 249, 266, 289 Umkehrverfahren 132 Umwandeln des Schädlichen in Nützliches 54, 65, 140, 148, 186, 235, 293 Umweltenergien 174 Universalität 62, 69 Universalkünstler 250 379 9 Register <?page no="380"?> Unmögliche Objekte 266 Unterdruck 225, 331 Unvollständige Lösung 140, 296 Ursache-Wirkungs- Zusammenhang 227, 314, 321, 334 Vakuum 68, 83, 86f., 126, 143f., 177, 225 Vakuum-Schaltschütz 143 Varianten 38, 54, 78, 81, 83, 85f., 130, 152, 156, 192, 229, 304, 331, 338 Verallgemeinerung 203 Verändern der Umgebung 140, 142-146 Verfahrenspatent 334, 354 vergiftete Aufgabenstellung 48, 50, 107 Vergütung 356ff. Vermittler 65 Vernicklung 122f. Versuch und Irrtum 35f., 42, 77, 92 Verzicht auf die Fachterminologie 58, 60 Vision 243, 285 Visuelle Konfrontation 42 Vollständige Feldüberdeckung (nach Zwicky) 81f. „Von Selbst“ 169-175, 178ff., 182, 187, 196, 200, 305, 327, 332 Vorbenutzung, offenkundige Vorbenutzung 323, 339 Vorherige Gegenwirkung 63 Vorherige Wirkung 63 Vorher untergelegtes Kissen 63 Vor-Ort-Arbeitsweise 248 Vorrichtung 41, 115, 120, 162, 169ff., 179, 181, 183, 216, 322, 326-329, 334 Vorspannung 167 Vorurteil, Vorurteil der Fachwelt 17, 195, 234, 277, 307, 336 Vorveröffentlichung 324 Wahrscheinlichkeiten 315, 317 Wärmepumpe 225 Wärmeübergang 276 Waschflasche 329-332, 334 Waschmittelphosphate 156f., 205f. Wasservorlage 330-334 Wechsel des Fachgebietes 23, 31, 228 Weglassen eines Systembestandteils, einer Funktion 107, 155, 356 Weißgrad 164 Wellblech, Wellblechbeplankung 287 Wertesystem 15, 25 Wertstoff 112 Widerspruch; Widerspruch (dialektischer, logischer) 194f. Widerspruchslösung 54, 195, 268 Widerspruchsterminologie 52 Windkraftanlage 217 Wirklichkeit 15, 17, 25, 135, 199, 234, 240, 254, 262, 307 Wirkung 18, 30, 39, 42, 48, 63ff., 73, 78, 97, 122, 129f., 134, 145, 157, 167, 186f., 199, 205, 214, 227, 239, 262, 266, 295, 321, 326, 329f., 334, 343, 345, 348 Witze 237 WOIS (Widerspruchsorientierte Innovationsstrategie) 71-75 Wunschdenken 203, 222, 231 Zauberberg (von Thomas Mann) 241 Zeitmanagement 28 Zerlegen, Segmentieren 70, 139, 276 Zielkonflikt 357f. Zufall 20 Zuspätkommen von Erfindungen 102, 123 380 9 Register <?page no="381"?> BUCHTIPP Egon Freitag Kreativitätstechniken So finden Sie das richtige Werkzeug für Ihr Problem 1. Auflage 2020, 432 Seiten €[D] 32,00 ISBN 978-3-8252-5553-4 eISBN 978-3-8385-5553-9 Welche Kreativitätstechnik ist die richtige für mein Problem? Kreativität wird in allen Berufsgruppen verlangt. Dabei fällt es schwer, aus der Vielzahl der Kreativitätstechniken die passende für die eigene Aufgabe auszuwählen. Dieses Buch bietet eine wissenschaftliche Übersicht über bekannte und weniger bekannte Techniken. Informationen zu den theoretischen Hintergründen, Quellen und Entwicklungslinien, aber auch die Orientierung an berufspraktischen Herausforderungen machen den Band sowohl für Praktiker: innen als auch für Wissenschaftler: innen und Studierende gleichermaßen zu einem wichtigen Arbeitsbegleiter. expert verlag - ein Unternehmen der Narr Francke Attempto GmbH + Co. KG Dischingerweg 5 \ 72070 Tübingen \ Germany Tel. +49 (0)7071 97 97 0 \ Fax +49 (0)7071 97 97 11 \ info@narr.de \ www.narr.de <?page no="382"?> ,! 7ID8C5-cfij55! ISBN 978-3-8252-5895-5 Wie entkomme ich der Routine? Wo tummeln sich die guten Ideen? Systematisches Erfinden funktioniert. Der Autor liefert konstruktive Handlungsempfehlungen und kann aus den Erfahrungen eines Erfinderlebens schöpfen: Kreatives Denken und Arbeiten ist erlernbar. Es führt zu überdurchschnittlichen Lösungen, und das fachübergreifend. Intuition ist wichtig; sie entfaltet ihre Kraft jedoch nur beim Einsatz der systematischen, im Buch behandelten Methoden. Von der Idee bis zum Schutz des geistigen Eigentums ist dieser Band ein Leitfaden für die Erfindungspraxis. Technik Dies ist ein utb-Band aus dem expert verlag. utb ist eine Kooperation von Verlagen mit einem gemeinsamen Ziel: Lehr- und Lernmedien für das erfolgreiche Studium zu veröffentlichen. utb.de QR-Code für mehr Infos und Bewertungen zu diesem Titel