Dienstag, 30. Juni 2015

Das Bedürfnis ist thetisch.

 

'Bedürfnis' ist bei Marx eine dynamische Kategorie. Es ist das poietische Vermögen, durch welches das Subjekt sich selbst als Subjekt 'setzt':

1. Landläufig ist 'Bedürfnis' ein Mangel, der aufgefüllt, ein Loch, das noch gestopft werden muss. Je bedürftiger der Mensch, umso ärmer. Aber nicht bei Marx: "Der Reichtum besteht stofflich betrach- tet nur in der Mannigfaltigkeit der Bedürfnisse." Grundrisse, S. 426. Bedürfnis ist kein Mangel, sondern ein Vermögen.
  
2. Die Erzeugung des neuen Bedürfnisses "ist die erste geschichtliche Tat": Deutsche Ideologie (Feuer- bachkapitel), MEW 3, S. 28. Einige Zeilen zuvor hatten Marx/Engels schon einmal eine 'erste ge- schichtliche Tat' vermerkt, nämlich den Gebrauch von Werkzeugen. Zwar nicht logisch, aber doch historisch verstanden, läuft es freilich auf dasselbe hinaus. Es sind die Erfindung und der Gebrauch von Werkzeugen, die es dem Menschen erlauben, sein vor-gesetztes Naturbedürfnis über-zu-erfüllen – und Raum schaffen für das Erfinden neuer Bedürfnisse. "Ihre Bedürfnissse, also ihre Natur", heißt es später in der Deutschen Ideologie, und von einer selbsterzeugten Natur ist also die Rede: generatio aequi- voca.*

'Bedürfnis' nimmt bei Marx systematisch denselben Platz ein wie bei Fichte Trieb bzw. Streben [Wollen], und entspricht der Husserl'schen Intentionalität.**

*) MEW 3, S. 44  

in 2010

**) Und nicht zu vergessen: Platos Eros, der ewig 'nach Schönheit strebt, weil er sie nicht hat'.  


Nachtrag, Juni 2015.  

In den während der sechziger Jahre zu einiger Prominenz gelangten Pariser Manuskripten zeigte Marx sich unverholen als Feuerbachianer, in der Heiligen Familie stellten Marx und Engels ihren 'Materialis- mus' groß heraus; doch über Feuerbach hinaus  gegangen sind sie erst in der Deutschen Ideologie, und zwar an ebendiesem Punkt: Bei Feuerbach heißt Bedürftigkeit leidend sein. Nur als Leidenden habe der bisherige Materialismus den Menschen auffassen können, die tätige Seite sei ausschließlich von den idealistischen Philosophen entwickelt worden. Die neu eingeführte Auffassung vom Bedürfnis als einem produktiven Vermögen war der erste genuin 'marxistische' Gedanke.







Nota.  Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog.

Montag, 29. Juni 2015

Digitalisieren heißt fungibel machen.

 Uwe-Jens Kahl_pixelio.de 

Ein Symbol ist ein 'digit': ein Zeichen für einen 'content', dessen sachliche Gestalt in keinerlei Verhältnis zu dessen sinnlicher Erscheinungsform zu stehen braucht. Ein Wort ist so ein Symbol, oder ein X oder ein U oder eine Zahl. (Dass das digitale Denken mit dem Zählen begonnen hätte, bestreite ich. Die ersten 'Zahlen' waren Ordnungszahlen: erst eins, danach ein zweites, usw.; sie bezeichnen eine Folge in der Zeit - und die wird analog 'angeschaut': im Bild der Bewegung).

Das wirkliche Denken geschieht überhaupt nicht digital. Das wirkliche Denken geschieht nicht diskursiv. Das wirkliche Denken geschieht in einer Kaskade von unfassbaren Bildern. Erst in der Reflexion, die das Denken des Denkens ist, werden die Bilder 'begriffen': fest-gestellt und ein-gegrenzt (de-finiert). Das diskursive Denken ist die Form der Reflexion. Aber die Reflexion ist sekundär, sie bezieht sich auf ('metà') das anschauliche Denken als ihren Stoff. Allerdings kann erst sie das anschauliche Denken nach richtig oder falsch unterscheiden. Mit andern Worten, ohne sie ist es zu nichts zu gebrauchen.

aus e. online-Forum, im Juni 2010 





Samstag, 27. Juni 2015

Digitalisierung befreit die Einbildungskraft.

fantasy art scenery 

...Wenzels wie immer kluge Überlegungen erlaube ich mir zu ergänzen durch einen Gesichtspunkt, den ich selber entwickelt zu haben mich rühmen darf – die Unterscheidung zwischen 'unserer' Welt und 'meiner' Welt .

Das Internet und alle materielle wie menschliche Hard- und Software, die daran hängen, entstammt nicht nur 'unserer' Welt – es wird dort auch bleiben. Es greift zwar tiefer als jedes andere Medium zuvor – sofern wir die Sprache selbst einmal ausnehmen – in 'meine' Welt hinein: weil es zwar der digitalen Technik entstammt, in der 'unsere' Welt womöglich ihren endgültigen Daseinsmodus gefunden hat; aber seine mächtigste Wirkung auf 'analogem' Weg erzielt – in der Macht der virtuellen Bilder! (Man möchte sagen, digitale Revolution und Iconic Turn sind Cousins.) Die gehen tiefer und fester in 'meine' Welt ein, als es Begriffe und logisches Denken je vermocht haben. Aber Leben erhalten sie erst dort. Ihre Macht über mich ist die Macht meiner Einbildungskraft über sie. Und ob sie meine Einbildungskraft herausfordern und ihre Virtuosität ausbilden, oder ob sie sie überschwemmen und ersäufen, das… kommt ganz drauf an.

Die Einführung des ersten Digits ins Gemütsleben der Menschen, des gesprochenen Wortes, hat ihre bildhafte Einbildungskraft nicht verödet, nein, ganz gewiss nicht. Auch nicht der Untergang des mythologischen Zeitalters in der Verwissenschaftlichung der Welt (wie man das nannte). Sonst hätten sie die digitale Technologie ja nicht erfinden können.

Der Quell des tatsächlichen und produktiven Denkens ist das Sprudeln anschaulicher Bilder. Die Reflexion tritt hinzu und 'macht was draus', aber erfinden kann sie nichts. Die virtuellen Bilder können meine Einbildungskraft nur zupappen, wenn ihr zuvor im Korsett des diskursiven Regelmaßes die Luft genommen wurde. Wie und womit, und vor allem: von wem Kinder "beschult" werden – das spielt allerdings eine Rolle! Die Bildung sollte sich schon darauf besinnen, dass der Ursprung der Vernunft nicht logisch ('digital'), sondern ästhetisch ('analog') ist. Wenn alles, was irgend digitalisierbar ist, erst seinen gehörigen Platz in den Diskursen gefunden haben wird, dann bekommt die Einbildungskraft wieder freies Spiel.

im Oktober 2011



Nota. - Meine Welt und unsere Welt durchdringen einander. Das sie ineinander - teilweise - auflösende Medium sind die in beiden Dimensionen brauchbaren Bedeutungen; nur die BedeutungenWas Wunder - denn meine Welt und unsere Welt 'kommen' überhaupt nur als Bedeutungsfelder 'vor'. Nicht meine Welt und unserer Welt unterscheiden sich.Sondern ich unterscheide mich; mal als bloßes Individuum, mal als Weltbürger.

März 2014 

Freitag, 26. Juni 2015

Kriterium des Wahren.


Rainer Sturm, pixelio.de

Veri criterium sit id ipsum fecisse.
Kriterium des Wahren ist, es selber geschaffen zu haben.
___________________________________________
Giambattista Vico, Liber Metaphysicus; 
De antiquissime Italiorum sapientia liber primus, München 1979, S. 44/45 




Donnerstag, 25. Juni 2015

Instinkt, Intuition, Urteil.

strichcode, pixelio.de

...Wenn ich aus Instinkt handle, urteile ich nicht. Ich folge auch keinem Zweck, jedenfalls keinem, den ich 'selbst gewählt' hätte. Aber mal ganz davon abgesehen - 'Instinkt' kommt in der gegenwärtigen Biologie nicht mehr vor. Sie haben nach ihm gesucht und nichts gefunden. Das Wort wurde in der Aufklärungszeit aufgebracht, und zwar, um zu erklären, was wohl den Tieren die fehlende Vernunft ersetzen mag. Und später wurde dann der Instinkt gebraucht, um aus der spezifischen "Instinktent- bundenheit" des Menschen wiederum seine… Vernunft zu erklären! 
 

Intuition ist ganz etwas anderes. Sie ist der Rohstoff der Vernunft. Es sind die anschaulichen, bild- haften Vorstellungen, aus denen das produktive Denken wirklich besteht. Tritt mit der Reflexion das Urteil hinzu, kann von Willen, Zwecken, Bewußtsein usw. gesprochen werden. 
 

Ich darf noch einmal darauf hinweisen, daß ich ausdrücklich auch die rein gedanklichen Zwecke (das können logische Zwecke, ästhetisch-moralische Absichten und ideale Ziele sein) mit in den Kreis des Pragmatischen einbezogen habe. Von Nutzen, Vorteil und "Erfolg" ist daher an dieser Stelle noch gar nicht zu reden. Das ist nur die allerflachste Art von Zwecken; für die in der Tat das, was Du Deinen "Instinkt" nennst, oft genug ausreicht. Ich wollte aber gerade und ganz besonders über das Andre reden. 

Fast hätt' ich es vergessen... Natürlich ist ein Urteil als logische Operation immer die Handlung eines Subjekts. Aber gerade als logische Operation beansprucht es eo ipso Objektivität, nämlich indem es sich auf Gründe stützt, die ihrerseits als "wahr" und gültig vorausgesetzt wurden, und zwar unabhängig davon, ob sie faktisch von irgendwem eingesehen werden. Ob diese Voraussetzung zutrifft, kann überprüft werden, und diese Überprüfung heißt Kritik. Kritizität ist das Unterscheidungsmerkmal der Wissenschaften gegenüber allen andern Formen des Meinens und Dafürhaltens. 
 

Das eigentliche Problem ist, dass dieser kritische Rückgang auf die (immer weiter zurück liegenden) Gründe nie ein Ende findet. Denn als "wahr" und gültig können wir nur das anerkennen, das zu- reichend begründet ist: auf Gründen, die ihrerseits... usw.. Will sagen: dass man auf diesem Weg nie und nimmer einen Grund findet! Das ist das Paradox bei der Wahrheit. Jedenfalls, solange man die Suche nach ihr als eine theoretische Aufgabe betrachtet. 
...

aus e. online-Forum, in 2007 




Mittwoch, 24. Juni 2015

Bedeuten, urteilen, Freiheit.


'Auch das Tier lebt in Bedeutungen', hieß es in einem meiner Texte.

"...weil es mir der Hauptthese zu widersprechen scheint, derzufolge das Proprium Humanum doch die Doppelung von Erscheinungsstrom und Bedeutung ist, also die Bedeutungsstiftung als genuin Menschliches anzusehen ist", schrieb dazu ein eiliger Reviewer. Nicht beachtet hat er die kleine, aber spezifische Differenz: nur weiß es nichts davon. Weil die Menschen von den Bedeutungen der Dinge wissen, haben sie die Möglichkeit der Wahl. Jene haben sie nicht. Die Dinge haben Bedeutung für sie als Exemplare ihrer Gattung, aber nicht für sie als Subjekte. Sie müssen und können nicht urteilen.

Freiheit sei Einsicht in die Notwendigkeit, sagte ein Knecht.


Wissen ist die Einsicht in die Möglichkeit von Freiheit.





Nota.  Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog.

Dienstag, 23. Juni 2015

Wissenschaftlichkeit, Begründung, Mitteilbarkeit, Diskursivität...

Sebastian Bremer, pixelio.de

'Wissenschaft' unterscheidet sich von andern Weisen des Meinens darin, daß sie ein auf seine Gründe hin überprüftes Wissen ist... Die Überprüfbarkeit ("Falsifizierbarkeit", nach Popper) ist ihr kardinaler pragmatischer Unterschied zu anderem Meinen: Sie ist Bedingung der Mitteilbarkeit. Nur wenn mein Wissen auf 'Gründen' beruht, kann ich es einem andern ver"mitteln": ihm die Gültigkeit meines Wissens "andemonstrieren"! Ich muß in der Begrründungskette meines Wissens einen 'Punkt' ausmachen, der dem andern bereits 'als gewiß bekannt' ist (Wittgenstein). Daran kann ich anknüpfen und aus ihm Schritt vor Schritt mein Wissen "her leiten". Daher sind die Sätze 'Wissenschaft ist begründetes Wissen' und 'Wissenschaft ist diskursives Denken' [nicht umkehrbar] gleichbedeutend. D.h. wirkliche Wissenschaft ist schlechterdings nie "voraussetzungslos", sondern argumentiert immer ex concessis; denn "irgendwo muß man ja anfangen". [nach Kant: wirkliches Wissen ist immer dogmatisch; aber noch lange nicht dogmatistisch]

Das heißt aber auch, daß 'wissenschaftliches Denken' die Gegebenheit von Wissenschaft als einer kulturellen Dimension (gesellschaftliches Institut) allbereits voraussetzt; d.h. die Vorhandenheit einer wissenschaftlichen Öffentlichkeit. Denn wenn mein Anderer, dem ich das Wissen, das ich selber 'eingesehen' habe, andemonstrieren will, mir bereits solche 'Gründe' konzediert, die lediglich plausibel sind, dann enthebt er sich und ipso facto mich der Prüfung (wiss.: Begründung) der einander zugebenen Gründe; so ist das vielleicht immer noch 'wahres' Wissen; aber nicht Wissenschaft: Wissenschaftlichkeit ist eine Weise der Darstellung - Darstellung "für" einen Andern (und wenn der 'Andre' auch ich selbst: mein kritisches Alter ego wäre...) 

aus e. Sudelbuch; 7. 6. 92





Montag, 22. Juni 2015

Begriffe braucht man, wo ein Zweifel ist.

greatmiddleway

Für das, was sich von selbst versteht, brauche ich keinen Begriff. Es ist, und damit gut. Es sei denn, ich wollte gerade das kritisieren: dass es sich von selbst versteht. Begriff ist Maßstab der Überprüfung. Im täglichen Leben ist er die Ausnahme. Denn ohne die Gewissheit, dass das meiste sich von selbst versteht, brächte ich kaum mal 24 Stunden über die Runden. Würde ich den ganzen Tag nur zweifeln, käme ich nie zum Handeln. Denn nicht jede Handlung ist eine Haupt- und Staatsaktion, die ihrer Letztbegründung bedarf. Das meiste ist ganz alltäglich.

•Juni 4, 2009 


Daraus folgt zwanglos, dass das eigentlich produktive Denken gar keine Begriffe braucht - es rauscht mir gewissermaßen wie ein Strom bewegter Bilder durchs Gemüt. Da wird noch nicht gezweifelt, da ist noch alles positiv. Erst wenn ich es festhalten und auf seine Tauglichkeit - wozu?! - überprüfen will, kann ich Begriffe gebrauchen, und vollends, wenn ich es einem andern mitteile. Der Begriff ist - vor allem andern - ein Instrument der Kritik.





Sonntag, 21. Juni 2015

Übersummativ.



Der aristotelische Satz, wonach das Ganze mehr sei als die Summe seiner Teile, konnte nur dogmatisch geglaubt werden. Beweisen lässt er sich nicht, es lässt sich nicht einmal angeben, was genau damit gemeint ist. Er besagt auch nichts Begreifliches - wenn man nämlich unter begreifen das Rückführen eines Phänomens auf seine Ursache versteht. Mit andern Worten, so einleuchtend der Satz auch immer war, in der Philosophie war er doch ein mysteriöser Fremdkörper.

Nicht mehr so in der neueren Naturwissenschaft, die seit anderthalb Jahrhunderten - seit der Revolution der Thermodynamik - nicht mehr kausal-linear, sondern systemisch denkt. Der springende Punkt der systemischen Betrachtung, ohne den sie fast wertlos ist, war aber die Einsicht, dass sich Systemeigenschaften nicht stetig Schritt für Schritt aus der Addition einzelner Kausalitäten aufbauen (müssen), sondern emergieren (können) - schlagartig und unerklärlich. 

Das ist nicht mysteriös und auch keine Widerlegung des Kausalitätsprinzips. Denn auch emergente Ereignisse würden nicht geschehen, wenn nicht eine Reihe anderer Ereignisse zuvor eingetreten wären; allerdings nicht nach dem nur scheinbar begreiflicheren Prinzip von Druck und Stoß, das uns lediglich vertrauter ist, ohne dass wir wirklich einen Begriff davon hätten. Bei Licht besehen ist uns auch die Kausalität nur anschaulich gegeben und um nichts begreiflicher als die Emergenz.






Nota. Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog.

Samstag, 20. Juni 2015

"Stoff und Form" und "Sein und Gelten"...



Die alte "Dialektik von Stoff und Form" findet ihre Lösung in der modernen Schein-Dialektik von 'Sein' und 'Gelten'. Die systematische Unterscheidung von beiden ist durch Lotze eingeführt worden; bei dem jedoch die Dreigliederung: Sein - Geschehen - Geltung. "In Wirklichkeit" "besteht" die Wirklichkeit "aus"... Geschehen, sonst nichts. Oder richtiger, da 'Wirklichkeit' immer nur eine Prädikation, terminus ad quem, nicht a quo ist, ist real immer nur "Erleben"; "Geschehen" ist schon eine durch Reflexion 'gesetzte' Objektivation, die dann nochmal in zwei Pole auseinandergezogen wird: das, was ist, und das, was es bedeutet. 'Wirklich' sind aber die 'Tatsachen' und deren 'Sinn' im Erleben immer schon ein und dasselbe: 'Es gibt' keine Tatsache, die ganz und gar nichts zu bedeuten hätte: Allenfalls wird der Mangel erlebt, daß die Bedeutung fraglich ist. Daß andererseits Bedeutung immer nur einem - actualiter oder virtualiter - Faktischen zukommt, ist zu banal, um es öffentlich auszusprechen. [Faktisch von facere, n'est-ce pas.]

Nicht anders die Begriffspaarung Stoff und Form, die nichts anderes aussagen soll als die beiden 'Seiten', Hin-Sichten, von denen aus auf den Gegenstand 'geblickt', also reflektiert werden kann - nachdem man zuvor bereits auf das Gegenständliche am Gegenstand reflektiert hatte (i.e. dessen "Tauglichkeit für menschliche Zwecke"). Denn 'zuerst' war 'das Zeug' der Dinge 'zuhanden' und 'erst dann' die Dinglichkeit 'da'! Kein Wunder also, dass die ersten Philosophen (Elea bis Plato) dazu neigten, die Stofflichkeit der Dinge für Nichts zu halten, und bei dem systematischen Reflexionsphilosophen Aristoteles der Stoff überhaupt nur als Möglichkeit zur Form in den Blick kommt; capacitas formarum bei Eckhart, hypokeimenon eidoôn bei Plotin, "Bestimmbarkeit" bei JGF.

Dazu: E. von Bracken, "Mr Eckhart und Fichte", S. 12ff.

Aristoteles: "Alles, was wird, wird aus einem solchen, das nur beziehungsweise ist und beziehungsweise nicht ist." Physik I/8

[Karl Kraus: "Nur in der Wonne sprachlicher Zeugung wird aus dem Chaos eine Welt." Heine und die Folgen in D. Untergang der Welt durch schwarze Kunst, S. 205. - Die "sprachliche Zeugung" ist das Festhalten, Festsetzen einer Geltung durch ein "Zeichen" - das seinerseits festgehalten wird durch seinen "Verweisungszusammen hang" ("System") mit "den andern" Zeichen...]

aus e. Notizbuch, 21. 9. 94

Freitag, 19. Juni 2015

Sinn oder Verstand.


Cartier-Bresson

Je begreiflicher uns das Universum wird, umso sinnloser erscheint es auch.
__________________________________________________________________ 
Steven Weinberg [Physik-Nobelpreis 1979], Die ersten drei Minuten, München 1977, S. 212




Donnerstag, 18. Juni 2015

Analog anschauen, digital repräsentieren.

Wolfgang Dirscherl, pixelio.de

Eben kommt eine Meldung, wonach der Unterschied zwischen Arbeits- und  Langzeitgedächtnis (u. a.) der sei, dass die Erinnerungsgehalte im ersteren analog, im zweiten aber digital abgespeichert würden. Eine digitale Form der Repräsentation der Welt im neuronalen Gewebe selbst? Das wäre eine wahre Revolution in der Hirnforschung.

Leider wird es aber wohl so sein, dass nur wieder die Begriffe schludrig verwendet wurden. Darum dieser Eintrag.



Aus einer Diskussion in einem online-Forum; im Juni 2010:

...weil 'digital' einen Sinn nur im gegensätzlichen Verhältnis zu 'analog' hat. Allerdings wird das Analoge als solches erst kenntlich, seit sich das Digitale sozusagen 'rein' ausgebildet hat.
 

Das nächstliegende Beispiel ist natürlich das Zifferblatt der Uhr. Bei der analogen Uhr wird die Abfolge der einzelnen 'Zeitpunkte' nicht durch ein den 'Punkten' gänzlich äußerliches Symbol 'bezeichnet'; sondern der Verlauf der Zeit wird durch die Eigenbewegungen der Zeiger 'gezeigt': Die Bewegung der Zeiger ist ein 'Abbild' der 'verlaufenden' Zeit. Der Zeiger repräsentiert die Zeit. Die Unterteilungen am Umkreis des Zifferblattes sind lediglich 'Anhalts'-Punkte.

Um ein digitales Zifferblat zu 'verstehen', muss ich die Bedeutung der Zahlen vorher kennen - und muss dann die Abfolge der Zeit'punkte' in meinem Kopf in das Bild der 'verlaufenden' Zeit übersetzen. Auf einem analogen Zifferblatt sehe ich, wie die Zeit verläuft. Ich muss keine Zahlen kennen, ich muss die Unterteilung des Tages in Stunden nicht kennen. Ein Fünfjähriger sagt: Wenn der große Zeiger da steht, ist die Mittagsruhe vorbei; dann kann ich wieder spielen.
 

In einem Spielfilm wird das Geschehen in bewegten Bildern 'gezeigt'; in dem Roman, der dem Drehbuch zugrundelag, wurde das Geschehen durch Worte 'bezeichnet'. Ich muss die Bedeutung der Schriftzeichen in meinem Verstand in Lautbilder umsetzen, die Lautbilder zu Wörtern zusammenfassen und mir deren 'Bedeutung' re/präsentieren. Und das alles muss ich vor meinem inneren Auge in bewegte Bilder übersetzen: Ich muss mir etwas vorstellen. Im Film konnte ich etwas anschauen.

Eine wesentliche Prämisse hat die digitale Repräsentationsform: Sie setzt voraus, dass die Zeit nicht 'fließt', sondern aus identifizierbaren Punkten 'zusammengesetz' ist. Ebenso kann 'der' Raum nur als Addition von einzeln bezeichneten (und als solchen bekannten) 'Räumen' vorgestellt werden. Das innere Bild, das ich 'mir mache', muss aus vorab bekannten Daten – Maßeinheiten - zusammengesetzt werden. Die digitale Information muss ich erst noch 'entziffern'. - In der analogen Darstellung ist sie sofort als ganze 'da'.

Grob gesagt: Die analoge Darstellungsweise hat den Vorteil der Fülle. Die digitale Darstellungsweise hat den Vorteil der Genauigkeit. Die eine ist unmittelbar, die andere ist Vermittlung.

_________________________

 
.... Nein, so kann es nicht sein: dass 'unser Denken auch in kleinsten Schüben erfolgt, also digital'. Ein Digit - von lat. digitus=(Zeige)finger - besteht aus zweierlei: zuerst aus einem Bedeutungsgehalt, und dann aus einem 'Zeiger', der auf ihn hinweist.

Es kann einen Bedeutungsgehalt geben, auf den kein Zeiger weist. Das dürfte auf die große Masse unserer Denkleistungen im Laufe eines Tages zutreffen. Sie kommen wie sie gehen. Man kann sie nicht behalten: Denn dazu müsste ich sie mit einem Zeiger versehen, durch den sie in meinen Gedächtnisspeicher einordnen kann. Mit einer kleinen Minderzahl von Denkleistungen machen wir genau das: Wir zeichnen sie durch Zeiger ('Begriffe') aus und können uns seither wieder an sie erinnern.

Umgekehrt kann es nicht sein: dass schon ein Zeiger da wäre, bevor noch ein Bedeutungsgehalt da war, auf den er weisen könnte. 



Allerdings sind im erlernten Begriffsystem eines sprachmächtigen Kulturmenschen tausende solcher Zeiger 'schon da' - nämlich gebunden ans das, auf was sie zeigen -, so dass in diesem Netz eine große Masse von den aus meiner Einbildungskraft sprudelnden 'Bedeutungen' sozusagen 'von alleine' hängenbleiben.

Die 'kleinsten Schübe' werden durch die begrifflichen Zeiger in das Sprudeln 'von außen' hineingetragen. Anschauung ist Anschauung und Reflexion ist Reflexion. Erst das Denken, dann das Denken des Denkens.

Es würde mich interessieren, wie die Bilder in unserem Gedächtnis gespeichert sind. Erst dann könnte ich sagen: Das kann sein, das kann nicht sein.

(Dies “Quale” fasziniert mich…) 

_____________________________


.... Das mit dem Speichern ist mir deswegen so wichtig, weil wir dann auch den "Zeigefinger" besser verstehen könnten. Es besteht der Verdacht, dass in unserem Gedächtnis mehr gespeichert ist, als wir uns erinnern können. Es kommt manchmal nur zufällig ans Tageslicht, manchmal unter besonderen Bedingungen wie z.B. während einer psychoanalytischen Sitzung oder in Hypnose.

_____________________________


.... 'Wie' das gespeichert - und noch viel interessanter: 'wie' es dann wieder aufgerufen wird, das kann einstweilen keiner sagen, und es gibt theoretische Gründe für die Annahme, dass man es niemals wissen wird. Die Hirnforscher teilen uns mit, dass schon ganz einfache 'Gehalte' nicht etwa in dieser oder jener bestimmten Nervenzelle (Neuron) gespeichert werden, sondern bereits in 'Assemblies' von etlichen Dutzend, die über weit entfernte Hirnregionen verteilt und durch Synapsen mit einander verschaltet sind.

So schon für das 'Denken'. Vollends mysteriös wird es aber beim 'Denken des Denkens', der Reflexion. Die Hirnforschung hat buchstäblich nicht die leiseste Vorstellung davon, wie sie zustande kommt.

Vor zehn Jahren (siehe ‘Vom Gehirn zum Bewußtsein’, in: Elsner, N., u. Gerd Lüer (Hg.), “Das Gehirn und sein Geist”, Göttingen 2000) ist das Wolf Singer immerhin noch als ein Problem aufgefallen, aber seine gemutmaßte 'Lösung' war höchst zweifelhaft: Die Reflexion käme durch 'Iteration', das heißt die sehr rasche, sehr häufige Wiederholung immer desselben Vorstellungsakts zustande - so als würde die Vorstellung über ihre eigenen Füße stolpern.

Das hatte wenig Plausibilität für sich, aber immerhin hat der Forscher noch das Problem gesehen. Doch in demselben Aufsatz hat er auch erstmals sein seitheriges Steckenpferd angekündigt: die Attacke wider das Ich und seine Freiheit und die Behauptung durchgängiger kausaler Determiniertheit. Und dieses reitet er seither ohn’ Unterlass, und da hat er das störende Thema Reflexion schnell wieder beiseite gelegt.

Und schon sind wir wieder bei digital und analog: Denn eine 'Stelle', eine 'Instanz', einen 'Arbeitsgang' oder sonstwas, wo die analoge Anschauung in eine digitale Repräsentation 'umgerechnet' wird (und zurück!), und die man eben 'ich' oder 'Bewusstsein' oder 'Reflexion' nennen könnte, die muss es geben: weil dieses Umrechnen ja tatsächlich geschieht. Solange Singer nicht zeigen kann, dass und womöglich wie dieser Akt durch etwas Vorangegangenes 'determiniert' sein könnte, hat er gar kein Recht, auf die Annahme eines Ich zu verzichten.

Der Übergang von analog zu digital ist nämlich genau das, dessen Möglichkeit er bestreitet: Er ist ein Bruch.Der Bruch besteht in der Einführung des Verneinungs- und vor allem des Frage-Modus, die beide nur in der digitalen Repräsentationsweise möglich sind, nicht aber in der ihr zu Grunde liegenden analogen. Wie soll der Umstand, dass ich verneine oder gar: ob ich frage, denn 'determiniert' sein? Er ist ja die Entdeterminierung selbst. 

____________________________

 ... Das ist allerdings der entscheidende Unterschied: Auf analoge Weise kann ich keine Verneinung wiedergeben. 'Ein Pferd' kann ich mühelos 'zeigen' – ich brauche nicht einmal einen Fotoapparat, ein paar Bleistiftstriche reichen. Aber wie soll ich 'kein Pferd' zeigen? Kein Pferd sieht ganz genauso aus wie keine Suppenschüssel oder… keine Verneinung. Für 'nein' und 'nicht' brauche ich ein Digit, dessen Bedeutung jedermann vorab schon kennt.

Und wie ist es dann erst beim Fragemodus! Wie soll ich 'was ist ein Pferd' bildlich darstellen – ohne Fragezeichen?! Die Fülle der Anschauung ist der digitalen Zersetzung alles Wirklichen und Gedachten in Millionen Bedeutungsatome an Reichtum haushoch überlegen. Sobald wir uns aber klarmachen, dass uns 'die Welt' immer noch vielmehr Fragen aufgibt als sie beantwortet, erkennen wir, dass der Digitalmodus die Bedingung allen Wissens ist. Begriffe ohne Anschauung sind leer, sagt Kant, aber Anschauung ohne Begriff ist blind.

Nota, Nov. 2013: Nicht damit zu verwechseln: der Umstand, dass eine Sinneszelle Reize allerdings 'im Takt' aufnimmt, in der kleinsten neuronalen Zeiteinheit von (soundsoviel) Millisekunden. Es ist wie in einem Kinofilm: Das Celluloidband ist aus ein paar Millionen einzelnen Bilder zusammengesetzt. Wenn sie rasch hintereinander abgespult werden, 'erscheinen' sie wohl in diskreten 'Sprüngen', aber nicht mir: Ich nehme sie als stetigen Fluss wahr. Denn natürlich hat zwar die Filmkamera ein paar Millionen Mal ihre Bilder 'geschossen'. Aber es war ein stetiger Fluss, den sie 'aufgenommen' hat.

Uwe Steinbrich  / pixelio.de

Der analoge Modus ist der Modus der Anschauung. Er ist nicht "positiv": Positiv ist erst das Setzen eines Was als Dieses. Um das Erscheinende der Anschauung als ein Dieses zu fassen, bedarf es der Verneinung; determinatio est negatio. Es müsste gefasst werden als 'nicht-alles-Andere'. Das lässt sich nicht anschauen, weil es das Paradox einer 'unendlichen Menge' ist: Das Unendliche lässt sich nicht anschauen. Es muss verendlicht werden zu 'nicht-Dieses'. - Also ist das Was der Anschauung selber zu bestimmen: Das Dieses muss selber 'gefasst' werden: Es muss 'vorgestellt' werden; durch Negation, d. h. Übergang in den digitalen Modus. Die Vorstellung ist die (qua Negation) digitalisierte Anschauung. Das Tier kann anschauen, aber mangels Digitalisierung nicht vorstellen.

2. 11. 08




Mittwoch, 17. Juni 2015

Absicht und Einfachheit.

K. Malewitch, Schwarzer Kreis, 1923

Einfachheit ist kein Attribut des Wirklichen. Im Gegenteil, auszeichnendes Merkmal der Erscheinungswelt ist - von den Eleaten bis Kant - das Mannigfaltige. Das Einfache 'gibt es' immer nur als Erzeugnis einer Denkarbeit. Es ist Ergebnis des Prozesses von Reflexion und Abstraktion. Es handelt sich wohlbemerkt um ein und denselben Prozess: Wer auf das Eine absieht, sieht dabei von dem Andern ab.

Das Ein-fache, das dabei zustande kommt, ist ein Ein-seitiges, gewiss doch: Es ist ja Resultat einer Absicht. Ist die Absicht gerechtfertigt, so ist es auch die dazu gehörige Einseitigkeit. 'Kritisch'  ist das Denken nicht, wenn es Einseitigkeit vermeidet; denn ohne Vereinfachung ist gar kein Denken. Sondern indem es die zu Grunde liegende Absicht ausspricht und ihre Berechtigung prüft. Rechtfertigen kann sich die Absicht aber wieder nur durch ihr Ergebnis.




Dienstag, 16. Juni 2015

Was Wahrheit wirklich ist.

Joujou, pixelio.de

Die Auflösung des Problems der Wahrheit ist ziemlich schlicht - aber leider auch wieder nur ein Problem.

Nämlich so: Wahrheit ist gar nichts, das ist, sondern das, was gelten soll. Sie liegt gar nicht in den Dingen selbst, sondern in unseren Urteilen. Nämlich so, dass ich gar nicht urteilen könnte, wenn ich nicht voraussetzte, dass "es" Wahrheit 'gibt' - wohl wissend, dass "es" ein solches Es gar nicht 'gibt'. Wahrheit ist eine Fiktion. Aber keine, auf die ich, wenn's beliebt, auch verzichten könnte. Der umgekehrte Satz 'Wahrheit gibt es nicht' ist nämlich sinnlos. Indem der Satz offenbar beansprucht, wahr zu sein, widerspricht seine Form dem Inhalt. (Kommunikationstheoretiker reden von der Meta-Ebene im Unterschied zu der Objekt-Ebene.)* 

Der theoretische Widerspruch, dass "es" einerseits Wahrheit nicht 'gibt', und "es" andererseits Wahrheit schlechterdings 'geben soll', lässt sich nur praktisch heben: Die Wirklichkeit der Wahrheit 'besteht' immer nur darin, dass ich nach ihr frage. Sie ist ein schöner Schein; aber ein unumgänglicher. 

aus e. online-Forum, in 2007

*) ein 'performativer Widerspruch', sagen die Sprechakttheoretiker...



Montag, 15. Juni 2015

Wozu taugt philosophieren?

Ekart Hartmann  / pixelio.de

Was soll denn nun eine Philosophie, und wozu bedarf es der spitzfindigen Zurüstung derselben, wenn sie gesteht, dass sie für das Leben nichts andres sagen, zu demselben [sich] nicht einmal als Instrument bilden kann; daß sie nur Wissenschaftslehre, keineswegs Weisheitsschule ist?

Ich erinnere auch hier an die oft gegebene Antwort. Ihr Hauptnutzen ist negativ und kritisch. Es mangelt in dem, was nun gewöhnlich für Lebensweisheit gehalten wird, nicht daran, daß sie zu wenig, sondern daran, daß sie zu viel enthält. Man hat eben die erräsonierten Sätze der oben beschriebenen erschaffenden Metaphysik hereingetragen – und diese sollen [wieder heraus] gesondert werden. Sie hat die Bestimmung, die gemeine Erkenntnis von aller fremden Zutat zu reinigen.

Dies hat ihnen Kant zur Genüge gezeigt.

Mittelbar, d. h. inwiefern ihre Kenntnis mit der Kenntnis des Lebens vereinigt ist, hat sie auch einen positiven Nutzen. Für das unmittelbar praktische pädagogische im weitesten Sinn des Worts: Sie zeigt, wie man die Menschen bilden müsse, um moralische, echtreligiöse, legale Gesinnungen in ihnen hervorzubringen und nach und nach allgemein zu machen. Für die theoretische Philosophie, Erkenntnis der Sinnenwelt, Naturwissenschaft ist sie regulativ. Sie zeigt, was man von der Natur fragen müsse.

Ihr Einfluß auf die Gesinnung des Menschengeschlechts überhaupt ist, daß sie ihnen Kraft, Mut und Selbstvertrauen beibringt, indem sie zeigt, daß sie und ihr ganzes Schicksal lediglich von sich selbst abhängen; indem sie den Menschen auf seine eignen Füße stellt.
____________________________________________________________________________
Johann Gottlieb Fichte, Rückerinnerungen, Antworten, Fragen, in: Gesamtausgabe Bd. II/5, S. 122f.




Sonntag, 14. Juni 2015

Warum philosophieren überhaupt nötig ist.



Dass die Menschen bestrebt sind, sich satt zu essen und danach das eine oder andere sinnliche Bedürfnis auch noch zu befriedigen, versteht sich von selbst, dafür braucht man keine Philosophie. Philosophieren müssen wir, um zu verstehen, wo die Menschen diesen schlimmen Drang nach dem Höheren her haben. Denn ohne den hätte "das Leben" gewiss nie das Rad erfunden, vom Mühlrad ganz zu schweigen.

Will sagen, nicht einmal die materiellen Bedürfnisse des Menschen hätten sich höher entwickelt, wenn sein Horizont nicht von Anfang an über das Erfordernis des Tages hinaus gereicht hätte.

aus e. Notizbuch, im Frühjahr 2008

Samstag, 13. Juni 2015

Wissenschaftliche Philosophie.

 magicpen / pixelio.de

Philosophie ist wissenschaftlich nur als Kritik. Und nur als Kritik sollte sie sich zu einem System ordnen lassen. Negativ zwar, sofern ihr letzter Grund darin aufgefunden wird, dass ein realer Urgrund des Wissens sich nicht nachweisen lässt. Sie ist Wissen des Wissens und endet in der Einsicht, dass das Wahre als beabsichtigter Gegenstand des Wissens nicht aufgefunden, sondern postuliert wird. Ein solches Wissen vom Wissen ist in seiner Negativität rein formal und hat keinen Inhalt.

Das war aber nicht die Absicht, aus der heraus die Philosophie entstanden ist. Sie wollte im Gegenteil ein posi- tives Wissen, das als Wegweiser zur richtigen Lebensführung taugt. Die Kritik zeigt nun: Mit theoretischen Mitteln ist das nicht zu haben. Die richtige Lebensführung lässt sich nicht ergründen, sondern kann nur ent- worfen werden. Sie muss frei erfunden werden, und ihr einziger Maßstab ist Schönheit – nämlich ob sie vor allem Interesse gefällt. Da kann die theoretische, wissenschaftliche, kritische Philosophie allerdings sekundär behilflich werden: indem sie die Interessen ans Licht zieht und abweist.

Die Kritik fügt dem Wissen sachlich nichts hinzu. Sie macht aber durch ihre Distinktionen das Wissen selbst – nicht erst das Gewusste – zu einem möglichen Gegenstand des Urteils: Was ist vor-, was ist nachgeordnet? Sie prüft den Wert des Wissens und ist also selber praktisch.

Daraus erhellt aber zugleich, dass der Maßstab zur Beurteilung des Wissens nicht in ihm selber aufzufinden ist, sondern ihm 'vor'-, d. h. übergeordnet war. Die 'Begründung' des Wissens geschieht actu im 'metaphilosophi-schen' Raum – und hat sich in der praktischen oder Lebensphilosophie zu bewähren. Sie ist eine pragmatische Fiktion, und insofern eben doch: 'Hypothese', genauer: Hypostase. Ist nicht proiectio, sondern proiectum. Und dies ist das einzige 'Interesse', das der Kritik standhält.

vor 2009




Freitag, 12. Juni 2015

Wissen.

Markus Kräft  / pixelio.de


Eine Diskussion in einem online-Forum im Mai 2009


...Wissenschaft ist, was Wissen schafft.

Nein. Wissen kann auf alle erdenklichen und wohl sogar auf unerdenkliche Weisen 'entstehen'. Das Wissen, das Wissenschaft schafft, ist geprüftes Wissen. Ob nämlich ein Wissen 'wahr' ist oder nicht, kann nicht von der Art und Weise seines Zustandekommens abhängig gemacht werden. Vielleicht ist der religiöse Glaube an einen persönlichen Gott ja wahr. Es kann nach der Natur des Glaubens aber nicht geprüft werden.

Sag mir nicht, Glauben sei nicht Wissen. Der Glaubende wird Dir sagen, das sei gehupft wie gesprungen, und gar: sein Glaube sei sicherer als Dein Wissen.

Deine Bemerkung vereinfacht das Problem nicht, sondern verschiebt es in die Region des Unergründlichen, womit nichts gewonnen, sondern alles verloren ist. 'Was Wissen ist', kann immer nur im Wissen ausgesagt werden. Die Frage setzt ihre Antwort schon voraus. Mit der Frage 'Gibt es Wissen?' steht es nicht besser.

'Ich weiß heißt: Es ist mir als gewiss bekannt', sagt Wittgenstein auf seine tautologische Art.


...Nunja, irgendwann wird man das Wissen "glauben" müssen, irgendwann muss man springen und das Wissen formulieren. ...

Hoppla, nicht so schnell! Das ist erst das letzte Wort der Philosophie (sofern sie theoretisch und selber Wissenschaft ist) und nicht schon das zweite oder dritte.

Danach, wenn alles Theoretische erledigt ist, kommt nämlich die "praktische" Philosophie - wo es um die Zwecke geht und nicht um die hinreichenden Gründe: Diese muss man auffinden, aber jene muss man 'setzen'; aus freien Stücken behaupten. Und da steht dann als erstes die Frage: In welcher Absicht "muss" man glauben, wozu will man 'wissen'? Das hat nämlich Folgen in dem, 'was' man schließlich zu 'wissen' bekommt. Und dann wird man finden: Das Wissen der exakten alias 'Natur'wissenschaften rechtfertigt sich durch seine Nutzanwendung in unserm Stoffwechsel mit der Natur. Da kann einer stehen bleiben und sagen: Mehr als Stoffwechsel (und vielleicht auch noch Fortpflanzung, aber das fällt ins selbe Kapitel) braucht das Leben nicht zu seiner Rechtfertigung. Widerlegen kann man ihn nicht. Aber gering schätzen und verhöhnen.

(Das heißt, 'eigentlich' käme die praktische Philosophie vor der theoretischen. Aber das weiß man erst nach der Kritik der realen Wissenschaften durch die theoretische Philosophie. Versucht man es andersrum, kommt ein x-beliebiger Dogmatismus heraus, den man ebenso gut glauben wie auch nicht glauben kann.)


...Die Abhebung des öffentlichen Wissens vom privaten Wissen ist mir nicht ganz klar…

Glauben zum Beispiel ist ein privates Wissen. (Dass er öffentlich zur Schau gestellt wird, tut nichts zur Sache.) Das Wissen, dass meine Nase juckt, auch. (Dass es sich öffentlich überprüfen ließe, tut ebenfalls nichts zur Sache - solange es nicht geschieht.)


Aus "...dass die hinreichende und erschöpfende Definition von Wissenschaft die sei, dass sie öffentliches Wissen ist"  ist doch abzuleiten, dass privates Wissen kein Wissen ist, oder?

Aber nein, ganz und gar nicht. Der Zufall oder die Vorrrsehung könnte es so eingerichtet haben, dass ich schlechterdings alles weiß - und natürlich 'wahr' weiß. Aber solange ich meine Weisheit für mich behalte und sie schließlich mit ins Grab nehme, ist dieses Wissen niemals Wissenschaft geworden. Auch wenn ich alles austrompete, aber keiner hört mir zu - weil keine Redaktion meine Texte druckt und/oder weil im Internet sowieso die Brüllaffen den Ton angeben -, dann würde es auch nicht zu Wissenschaft, sondern ginge ungehört unter. Wenn es mir nun gelänge, immerhin ein paar Getreue um mich zu scharen, dann würde mein (wohlbemerkt immer noch 'wahres') Wissen zu einer (immer noch unwissenschaftlichen) Sektenlehre; und falls unter den Adepten die Sektierer die Oberhand gewännen, dann würde eine Geheimlehre nur für die Auserwählten daraus. Und wohlbemerkt: Alles, was sie wüssten, wäre immer noch 'wahr'. Nur zu Wissenschaft würde es nimmermehr...

Bei den alten Griechen bildeten die Pythagoreer so eine Sekte. Man hat nie erfahren, was dort im Besonderen gelehrt wurde. Ich will nicht sagen, dass das historisch irgendwie wahrscheinlich wäre - aber logisch auszuschließen ist es nicht, dass das 'alles wahr gewesen' ist.

(Ich kann von Glück reden, dass sich meine Philosophierungen der Sache nach so wenig zu einer Geheimlehre eignen!)


Hmm, privates Wissen, das es mangels Öffentlichkeit nicht zur Wissenschaft schafft?! Ist es zulässig Wissenschaft von seiner Verbreitung bzw. Akzeptanz abhängig zu machen?

"Akzeptanz"? Um Himmels willen, nein!

Nicht, weil Schulz und Meier sich auf irgendwas ('Konsensfähiges') "verständigt" hätten, entsteht Wissenschaft; sondern weil in der Öffentlichkeit die Überprüfung der Gründe verallgemeinert und eo ipso radikalisiert  ist - so dass sie jedes Mal bis an die 'Wurzel' (lat. radix) geht. Da wird dann keiner mehr gefragt, ob er irgendwas "akzeptieren" mag. Sondern das, was der verallgmeinerten Prüfung standgehalten hat, GILT (einstweilen definitiv). Wer's nicht "akzeptiert", bleibt als 'Privatmann' zurück (gr.Privatmann: idiôtês).

Bekanntlich sind übrigens die Wissenschaftler heute wie je eine ganz kleine Minderheit in einem Meer von Privatleuten. Weil aber im Jahrhunderte langen Prozess der Veröffentlichung des Wissens sich 'Wissenschaft' zu einer gesellschaftlichen Instanz ausgebildet hat, will auch unter den Privatleuten keiner mehr gern ein Idiot sein; und darum hat das Wort der Wissenschaft gesellschaftliche Autorität. Weil und solange der Prozess der verallgemeinerten Überprüfung niemals abgeschnitten wird.


...Überhaupt gefällt mir der Ansatz immer weniger, ich glaube. eine soziologische Beschreibung der Wissenschaft, nichts anderes liegt hier vor, ist ungünstig.

Soziologisch wäre meine Sicht, wenn es sich beim Prozess der öffentlichen Kritik um eine Akkumulation von Stoff, um ein Tauschgeschäft oder um die Ermittlung eines Durchschnitts handeln würde. Es ist aber ein Vorgang der Reduktion. Das ist ein logisches Geschehen.