zurück 
18.4.2019

(Neue) Evaluationskultur in der Radikalisierungsprävention?

Forschungsmethoden, Akteurskonstellationen und Logik(en) der Praxis

Welche Art von Evaluationen braucht es im Bereich der Radikalisierungsprävention? Wie können und sollen die verschiedenen Akteure dort zusammenarbeiten, wie ihren Austausch gestalten? Solche und ähnliche Fragen stellen sich in vielen Evaluationen (nicht nur) im Bereich der Radikalisierungsprävention. Im Folgenden soll ein Blick auf Ist-Stand, Herausforderungen und Desiderate für das Verhältnis von Präventionspraxis und Evaluationsforschung geworfen werden.


Zum Ist-Stand: Evaluation in der Radikalisierungsprävention



Mittlerweile sind in der Radikalisierungsprävention die wissenschaftliche Begleitung und Evaluation von Maßnahmen, Projekten und Programmen weit verbreitet. Derzeit gibt es eine Vielzahl von Akteuren, die in diesem Bereich tätig sind. So wird das Bundesprogramm "Demokratie leben!" seit 2015 durch einen Verbund zwischen der in der Fachgruppe "Politische Sozialisation und Demokratieförderung" am Deutschen Jugendinstitut (DJI) in Halle (Saale) angesiedelten Programmevaluation, dem Institut für Sozialarbeit und Sozialpädagogik (ISS) in Frankfurt und der Camino Werkstatt Berlin evaluiert. Letztere zeichnet beispielsweise auch für die Evaluation des vom Violence Prevention Network durchgeführten Präventionsprojektes Teach2Reach verantwortlich, das im Bereich der Islamismusprävention verortet ist. Die Beratungsstelle Radikalisierung des Bundesamtes für Migration und Flüchtlinge (BAMF) wurde durch eine im Forschungszentrum des BAMF angesiedelte Evaluation begleitet. Auch Landesprogramme wurden und werden wissenschaftlich begleitet und evaluiert, so beispielsweise das Thüringer Programm für Demokratie, Toleranz und Weltoffenheit von der Gesellschaft für sozialwissenschaftliche Analyse, Beratung, Evaluation, ProVal. Evaluationserfahrungen gibt es ebenfalls bei Aussteigerprogrammen, so wurde beispielsweise das Aussteigerprogramm für Rechtsextremisten des Ministeriums für Inneres und Kommunales NRW durch die Hochschule Esslingen evaluiert. Die Evaluation der Hamburger Fach-und Beratungsstelle für religiös begründete Radikalisierung (Legato) wurde am Fachgebiet Kriminologische Sozialforschung der Universität Hamburg durchgeführt. Diese Liste ließe sich um viele weitere Beispiele ergänzen.

i

Serie: Evaluation

Dieser Beitrag ist Teil einer Serie mit dem Themenschwerpunkt Evaluation hier im Infodienst Radikalisierungsprävention. Im Rahmen des Themenschwerpunkts werden verschiedene Perspektiven auf das Thema Evaluation in der Präventionspraxis dargestellt. In den Artikeln geht es um Sinn, Zweck und Herausforderungen von Evaluationen, um verschiedene Arten von Evaluationen und aktuelle – zum Teil gegensätzliche – Positionen zum Thema. Dabei kommen verschiedene Beteiligte zu Wort: sowohl Akteure, die Evaluationen planen und durchführen als auch solche, deren Projekte evaluiert wurden oder werden.

Zu den Beiträgen: Außerdem zum Thema Evaluation im Infodienst:

Ob sich im Feld der Radikalisierungsprävention bereits von einer "Evaluationskultur" sprechen lässt, scheint jedoch fraglich. Dies liegt sicherlich einerseits daran, dass Evaluationen bereits in vielen Projekten der Radikalisierungsprävention durchgeführt wurden und werden und man hier von existierenden Evaluationskulturen im Plural sprechen kann. Ob die Herausbildung einer Kultur sinnvoll ist, oder ob nicht vielmehr die Stärke in der Vielfalt der Settings, Aufträge und Kooperationen liegt, wäre durchaus zu diskutieren. Andererseits lässt der Begriff "Evaluationskultur" in seiner Unbestimmtheit viel Raum für Interpretation. Versteht man unter einer "Kultur" von Evaluation – analog etwa zum Begriff der Organisationskultur – ein gemeinsam geteiltes Set von Werten, Normen, Erwartungen, Umgangsweisen und (expliziten oder impliziten) Standards, so wird deutlich, dass es hier durchaus Entwicklungspotenzial gibt. Gleichzeitig liegt hier bereits eine der größten Herausforderungen für Evaluationen, da drei funktional differenzierte Teilsysteme (Politik, Wissenschaft und das Erziehungs- bzw. Hilfesystem), die jeweils unterschiedliche Handlungslogiken, Organisationskulturen und Ziele haben, zusammentreffen. Dies hat Auswirkungen auf die Zusammenarbeit, die von unterschiedlichen, teils divergierenden Erwartungen und Sichtweisen geprägt sein kann. So stellten beispielsweise Saskia Lützinger und Florian Gruber in einer Studie des Bundeskriminalamts fest, dass in der Präventionspraxis eine deutlich ambivalente Haltung gegenüber dem Thema Evaluation herrsche. "Obgleich ein großes Interesse an der Evaluation der eigenen Projekte bestand, existierte zugleich große Skepsis über die Aussagekraft und Durchführbarkeit evaluativer Maßnahmen. So wurden diese beispielsweise vielfach mit statistischen Erhebungen bzw. Rechenschaftsberichten gleichgesetzt, begleitet von der Einschätzung, dass eine Reduktion auf bloße Zahlen dem tatsächlichen inhaltlichen Anspruch und zeitlichen Aufwand, der mit Distanzierungsbegleitung einhergeht, nicht gerecht würde und diesen auch nicht entsprechend abbilde"[1]. Die Evaluationsprojekte können für diese skeptische Haltung zumindest teilweise auch mit verantwortlich sein, wenn zum Beispiel Methodendesign und Vorgehen nicht vermittelt und begründet werden, Bewertungsstandards unklar bleiben oder die Praxis in ihrer Eigenlogik und mit ihrem spezifischen Wissen nicht angemessen berücksichtigt wird[2]. Erinnert sei an dieser Stelle an die "Standards für Evaluation" der DeGEval, die insbesondere Evaluierenden, aber auch Evaluierten und Auftraggebern einen Leitfaden für Planung, Durchführung und Zusammenarbeit geben[3], der bereits viele mögliche Elemente einer Evaluationskultur enthält. Diese Standards dienen als Orientierung und Leitlinie und beinhalten in vier Standardgruppen (Nützlichkeit, Durchführbarkeit, Fairness und Genauigkeit) und 25 Einzelstandards verschiedene Aspekte von Evaluation, die nicht nur für deren unmittelbare Durchführung, sondern auch für die Kooperation der Akteure relevant sind. Das Rad muss also auch in der Evaluation von Radikalisierungsprävention nicht neu erfunden werden. Es liegen sowohl vielfältige Erfahrungen in der Begleitung und Evaluation von Programmen und Projekten der Radikalisierungsprävention und Demokratieförderung vor, als auch allgemeine Standards, die einen Rahmen für die Zusammenarbeit der beteiligten Akteure bieten können. Darin sind bereits viele Aspekte für die Entwicklung von Evaluationskultur(en) enthalten. An einer solchen Kultivierung von Evaluation weiterzuarbeiten, kann für alle Beteiligten die Chance bieten, Erwartungen transparent zu machen, sich in ein reflexives Verhältnis zueinander zu setzen und die Kooperation produktiv und effizient zu gestalten.

Die Gleichzeitigkeit von Interesse und Distanz der Praxisakteure im Feld der Radikalisierungsprävention korrespondiert (wie auch in anderen Praxisfeldern) mit einer komplexen Konstellation zwischen Evaluationsforschung, deren (oftmals ministerialen) Auftraggebern (die damit zugleich die Finanzierung der Projekte innehaben) und Praxisakteuren, die im Folgenden näher beleuchtet werden soll.

Fachliche Herausforderungen



Der gesellschaftliche Problemdruck – etwa Radikalisierungs- und Polarisierungstendenzen – sorgt unter anderem dafür, dass Projekte und Maßnahmen der Radikalisierungsprävention (aber auch der politischen Bildung und Demokratieförderung) sich einem zunehmenden Legitimationsdruck durch Politik, Medien und Gesellschaft ausgesetzt sehen, schnell und eindeutig ihre Wirksamkeit und Effizienz zu beweisen. Wo Evaluation sich insbesondere oder ausschließlich als eine an wenigen quantitativen Kennzahlen orientierte Erfolgskontrolle versteht, kann dies zu einem Problem werden.[4] Befunde der Radikalisierungsforschung belegen seit langem, dass Radikalisierungsprozesse in aller Regel in ein komplexes Geflecht von Anlässen und Ursachen, von psychologischen, gesellschaftlichen und familiären Faktoren eingebettet sind – Maurer spricht hier auch von der "Pluralität der Radikalisierung".[5] Weder die Prävention von Radikalisierung noch die Deradikalisierungsarbeit sind insofern weitgehend standardisierbar oder gar manualisierbar, sondern wenden sich ihren Adressatinnen und Adressaten situationsspezifisch und lebensweltorientiert zu. Ein komplexes Phänomen bedarf einer komplexen, auf Langfristigkeit ausgerichteten Präventionslandschaft mit vielfältigen Ansätzen und Akteuren[6]. Gleichzeitig sind erhebliche Teile der Radikalisierungsprävention in Deutschland modellhaft arbeitende Projekte, so beispielsweise jene im Bundesprogramm "Demokratie leben!". Charakteristisch für sie ist, dass sie qua gesetzlichem Auftrag "der Entwicklung, Erprobung, Überprüfung und Weiterentwicklung von Methoden, Konzeptionen und Strukturen in der Kinder- und Jugendhilfe dienen"[7] sollen und beispielsweise im Bereich des Islamismus auf diese Weise modellhaft arbeiten. Ihre Leistung besteht also qua Auftrag nicht beispielsweise in einer flächendeckenden Reduktion radikaler Orientierungen oder extremistischer Haltungen. Ob und wie sie auf ihre Adressaten wirken, kann jedoch in entsprechend komplexen Evaluationsdesigns (etwa mit quantitativen und qualitativen Adressatenbefragungen, Interviews zu Wirkannahmen der Projektdurchführenden und teilnehmenden Beobachtungen der Angebotsdurchführung) erhoben werden.

Auch geht es in modellhaften Bundes- wie Landesprogrammen oftmals um die Entwicklung von Strukturen, um Vernetzung und Fragen des Transfers von Erkenntnissen. Nimmt man diesen gesetzlichen Auftrag der Erprobung ernst, so müssen Modellprojekte in letzter Konsequenz auch die Möglichkeit haben, zu scheitern, beispielsweise in der Zielgruppenerreichung, der Passung von didaktischem Ansatz und Zielgruppe oder in mittelfristigen Resonanzen des Projektes bei der Zielgruppe. Werden (gesetzlicher) Auftrag und Zweck von Projekten in Evaluationsdesigns nicht berücksichtigt und mitgedacht, besteht die Gefahr, dass Evaluationen die Praxis an falschen Maßstäben messen und damit zu einer "Entfremdung" der Akteure statt zu einer Evaluationskultur beitragen.

Diese Möglichkeit des Scheiterns bedeutet natürlich gerade nicht, dass der Erfolg solcher Projekte gleichgültig wäre, sondern bezeichnet vielmehr die Notwendigkeit einer Fehlerkultur. Eine wissenschaftliche Begleitung und Evaluation kann beispielsweise dafür sorgen, dass gemeinsam Gründe für solche Entwicklungen analysiert werden, Lerneffekte entstehen (und Fehler damit nicht wiederholt werden) und ein Wissenszuwachs über das Feld der Radikalisierungsprävention entsteht, der dann auch zum Beispiel in die Regelpraxis der Kinder- und Jugendhilfe transferiert werden kann. Im Bereich der Demokratieförderung und Radikalisierungsprävention verkennt die Forderung nach einer Konzentration auf eine rigide, standardisierte und quantifizierbare Erfolgskontrolle im Sinne eindeutiger Kennzahlen (z. B. der Reduktion von Vorurteilen oder Gewalthandeln) die grundlegenden Spezifika des Feldes. Sie dient im schlimmsten Fall nicht der Entwicklung und kritischen Reflexion des Feldes, sondern der Etablierung von Misstrauen zwischen Evaluationsforschung, Auftraggebern und Praxis und der Demontage von Praxisprojekten. Instrumente wie beispielsweise die WESPE-Datenbank des Nationalen Zentrums für Kriminalprävention (NZK) können durch ihre Eindimensionalität[8] und den Anspruch von Allgemeingültigkeit in der oben beschriebenen Weise kontraproduktive Effekte haben. Sie können das Verhältnis zwischen wissenschaftlicher Begleitung, Evaluation und Praxis dauerhaft beschädigen sowie Auftraggebern und Interessenten Eindeutigkeiten suggerieren, wo diese de facto nicht gegeben sind. Insofern lässt sich die Aussage von Widmer auch auf den Bereich islamistischer Radikalisierungsprozesse übertragen: Es "darf bei Maßnahmen gegen Rechtsextremismus nicht von uniformen Effekten ausgegangen werden. Vielmehr ist anzunehmen, dass derartige Maßnahmen bei unterschiedlichen Zielgruppen (unterschieden beispielsweise nach Alter, Geschlecht, Bildungsstand, politischer Orientierung etc.) unterschiedlich rezipiert werden und auch unterschiedliche Wirkungen entfalten. Die Wirksamkeit von Maßnahmen gegen Rechtsextremismus ist differenziert zu beurteilen und pauschale Aussagen sind problematisch".[9] Dies ist jedoch nicht als ein prinzipielles Argument gegen den Einsatz standardisierter Instrumente in der Evaluation zu lesen – abgestimmt auf ihren Gegenstandsbereich und eingebettet in methodologische Reflexionen und ein komplexes Evaluationsdesign kann beispielsweise ein quantitatives Projektmonitoring oder eine standardisierte Adressatenbefragung ein unverzichtbares Instrument sein, um Evaluatoren, Auftraggebern und den Projekten selbst einen Überblick über verschiedene Aspekte der Programm- und Projektdurchführung (etwa die Zufriedenheit der Adressaten oder die Entwicklung von Kooperationsbeziehungen) zu geben.

Die Vielfalt der Evaluationsmethoden



Für eine Evaluationsforschung, die der Praxis der Radikalisierungsprävention gerecht werden soll, liegen zahlreiche Evaluationsmethoden vor, die bereits in der Radikalisierungsprävention oder Demokratieförderung etabliert sind und erprobt wurden. Sie können dazu beitragen, Evaluationskulturen konstruktiv mitzugestalten, entweder in Form der Herausbildung neuer oder in der Konsolidierung im Handlungsfeld bereits bestehender Evaluationskulturen.[10] Qualitative Interviews mit Praktikerinnen und Praktikern in Projekten und Maßnahmen, Befragungen von (oftmals jugendlichen oder heranwachsenden) Projektteilnehmenden nach Abschluss der entsprechenden Angebote, der Einsatz von sogenannten logischen Modellen als einem (bei Bedarf) partizipativ angelegten Instrument zur Explikation von und Reflexion auf verschiedene Elemente des Projektverlaufs und auch das quantitative Programm- und Projektmonitoring, das z. B. einen Überblick über Strukturentwicklungen, Qualifikationshintergründe oder Quantität und Qualität von Kooperationsbeziehungen erlaubt, sind nur einige Beispiele aus dem gut entwickelten und erprobten Methodenkoffer der Evaluationsforschung. Gleichzeitig stellen sich auch im Feld der Demokratieförderung und Radikalisierungsprävention verschiedene fachliche Fragen zur (Weiter-) Entwicklung angemessener Evaluationsmethoden, etwa wenn es um die Erfassung komplexer und langfristiger Entwicklungen geht, wie sie sich beispielsweise in Bildungs- und Sozialisationsprozessen zeigen.

Gerade in gesellschaftlichen Bereichen wie der Radikalisierungsprävention, bei denen es sich größtenteils um (sozial-)pädagogisch ausgerichtete – und damit nicht oder kaum standardisierbare – Angebote, Maßnahmen und Projekte handelt, die auf unterschiedliche Zielgruppen, Individuen, Kontexte und Problemlagen treffen, kann beispielsweise der Einsatz logischer Modelle ein Element sein, um Evaluationsforscherinnen und -forscher und Praxisakteure sowie Auftraggeber in einen konstruktiven Dialog zu bringen.[11] Gerade diese Dialoghaftigkeit bietet eine gute Basis für Transparenz, die als solche ein wichtiges Gütekriterium für Evaluationen darstellt. Logische Modelle bestehen typischerweise aus einer Explikation der Ausgangslage (auf die das Projekt einwirken will), dem Formulieren der Ziele und möglicher angestrebter Resultate (Outputs, Outcomes, Impacts), Resonanzen und Wirkungen des Projektes auf verschiedenen Ebenen, aus zu unternehmenden Maßnahmen, Schritten und Aktivitäten, um diese Ausgangssituation zu verbessern, aus der Reflexion über benötigte und zur Verfügung stehende Ressourcen, mögliche (sich unter Umständen auch während der Projektlaufzeit schon verändernde) Rahmenbedingungen sowie der abschließenden Reflexion auf Schlüssigkeit, Angemessenheit und Nachvollziehbarkeit dieser einzelnen Elemente.[12] Damit stellen solche Modelle eine von verschiedenen Möglichkeiten dar, wie sich Evaluations- und Praxisakteure auf eine gemeinsame (Meta-)Ebene begeben können, um eine Vorstellung von der Logik eines Projektes zu entwickeln und dessen Entwicklung und Praxis nachvollzieh- und reflektierbar zu machen. In der Evaluation sind sie ein mögliches Element einer rekonstruktiven Projekt- und Programmtheorie-Evaluation, die komplexen Programmen und Projekten in sich verändernden Settings gerecht werden kann.[13] Zudem stellen sie (überhaupt erst) eine angemessene Grundlage für wirkungsorientierte Evaluationen im Bereich der Radikalisierungsprävention her.[14]

Zusammenarbeit in der Evaluation



Grundlegend muss sicherlich anerkannt werden, dass die verschiedenen Akteure aus Praxis, Politik, Verwaltung und Evaluation, die im Feld der Radikalisierungsprävention relevant sind, mit jeweils unterschiedlichen Logiken, Perspektiven und Ansprüchen auf das Feld blicken. Insofern ist eine wesentliche Aufgabe von Evaluation einerseits eine entsprechende "Übersetzungsarbeit", indem sie beispielsweise versucht, die "Logik der Praxis" abzubilden, zu reflektieren und sowohl Akteuren der Politik und Auftraggebern als auch den Praktikerinnen und Praktikern selbst einen differenzierten Ein- und Überblick zu geben. Sie muss dabei die Gratwanderung vollbringen, diese Logiken der Praxis a) nicht einfach zu reproduzieren (sonst wäre sie überflüssig) und b) nicht nach unpassenden Maßstäben zu beurteilen. Sie muss vielmehr zu einem Verständnis und einer Perspektive beitragen, die die Praxis selbst nicht von sich hat (z. B. weil sie unter unmittelbarem Handlungsdruck steht und über keine entsprechenden zeitlichen und personellen Ressourcen bzw. das entsprechende Know-How der Evaluation verfügt) und die Auftraggebern (z. B. in der Politik) einen realistischen und empiriegesättigten Blick auf das Feld, seine Herausforderungen, die Programm- und Projektentwicklung, Resonanzen und Wirkungen und eventuelle Anpassungs- und Steuerungsbedarfe ermöglicht. Evaluationsforschung wiederum braucht für die Umsetzung solcher Forschungsdesigns, die den Herausforderungen der Praxis und den Informationsbedarfen von Politik und Steuerungsebenen bestmöglich angemessen sind, eine entsprechende personelle und finanzielle Ausstattung sowie genügend Zeit, um diese Designs auch umzusetzen, empirisches Material auszuwerten, einzuordnen und zu disseminieren. Gleichzeitig – auch dies gehört zu einem transparenten Umgang – kommen Evaluationen nicht umhin, auch ihrem Bewertungsauftrag nachzugehen und Auftraggebern beispielsweise empirische Hinweise auf Fehlentwicklungen oder Defizite in Programmbereichen oder Projekten zu geben. Eine Fehlerkultur bei allen Beteiligten ist sicherlich eine der wesentlichen Voraussetzungen zur (Weiter-)Entwicklung von Evaluationskultur(en). Politische Akteure und andere Auftraggeber hingegen sollten sich in (sozial-) pädagogischen Feldern wie dem der Radikalisierungsprävention nicht von simplifizierenden Vorstellungen des Praxisfeldes und eindimensionalen Ergebnissen locken lassen. In Programmen, Projekten und institutionellen Arrangements sollten Möglichkeiten für Reflexionsprozesse verstärkt mitgedacht und institutionalisiert werden.

Fußnoten

1.
Bundeskriminalamt/IZ 32 – Forschungs- und Beratungsstelle Terrorismus/Extremismus (FTE) (2017): Extremismusprävention in Deutschland – Herausforderungen und Optimierungspotential. Modulabschlussbericht. Wiesbaden.
2.
Für eine Erörterung der Praxisperspektive vgl. den Beitrag "Das 'Erwartungsdreieck Evaluation': Eine Praxisperspektive" von Dennis Walkenhorst.
3.
www.degeval.org/fileadmin/Publikationen/DeGEval-Standards_fuer_Evaluation.pdf
4.
Für einen Überblick zu methodischen und methodologischen Fragen, Ansätzen und Kontroversen vgl. Armborst, A./Biene, J./Coester, M./Greuel, F./Milbradt, B. & Nehlsen, I. (2018): Evaluation in der Radikalisierungsprävention. Ansätze und Kontroversen. Frankfurt am Main.
5.
Maurer, T. (2017): Die Pluralität der Radikalisierung – Eine systematische Analyse der Theorieentwicklung zur Radikalisierungsforschung. In: Journal for Deradicalization 13, S. 49-100.
6.
vgl. Milbradt, B., Schau, K. & Greuel, F. (2019): (Sozial)-pädagogische Praxis im Handlungsfeld Radikalisierungsprävention – Handlungslogik, Präventionsstufen und Ansätze. Gutachterliche Stellungnahme für den 24. Deutschen Präventionstag am 20. und 21. Mai 2019 in Berlin. www.praeventionstag.de/dokumentation/download.cms?id=2790&datei=DPT24_Stellungnahme_Milbradt_Schau_Greuel_web-2790.pdf
7.
Kinder- und Jugendplan des Bundes über die Gewährung von Zuschüssen und Leistungen zur Förderung der Kinder- und Jugendhilfe (KJP, III, 3.2).
8.
In diesem Fall bedingt durch einen "Evidenzindex", bei dessen Zustandekommen systematisch standardisierte Methoden und sogenannte randomized controlled trials (rct) höher gewichtet und damit bevorzugt werden, vgl. www.nzkrim.de/wespe/. Die "WESPE"-Datenbank des NZK beansprucht, mit diesem Evidenzindex die Wirksamkeit von Präventionsprojekten in verschiedenen Handlungsfeldern und die Güte von Evaluationen zu bewerten. Die systematische Bevorzugung und Höherbewertung standardisierter Methoden bzw. rct's blendet jedoch die Frage aus, ob solche Methoden für die bewerteten Projekte und Maßnahmen überhaupt angemessen sind (was beim größten Teil durchaus fraglich ist und Gegenstand einer kritischen Methodendiskussion sein müsste) und suggeriert qua Aufbau eine Objektivität in der Bewertung, die schlicht nicht gegeben ist.
9.
Widmer, T. (2012): Wirkungsevaluation zu Maßnahmen der Demokratieförderung. In: Strobl, R./Lobermeier, O. & Heitmeyer, W. (Hrsg.): Evaluation von Programmen und Projekten für eine demokratische Kultur. Wiesbaden.
10.
für einen Ein- und Überblick vgl. beispielsweise Lynen von Berg, H./Roth, R. (Hrsg.) (2003): Maßnahmen und Programme gegen Rechtsextremismus wissenschaftlich begleitet. Aufgaben, Konzepte und Erfahrungen, Wiesbaden; sowie Strobl, R./Lobermeier, O. & Heitmeyer, W. (Hrsg.): Evaluation von Programmen und Projekten für eine demokratische Kultur. Wiesbaden.
11.
Für einen Überblick über Evaluationsdesigns vgl. den Text von Milena Uhlmann.
12.
Vgl. Projekt eXe (Bearbeitung: Karin Haubrich): Programme ergebnisorientiert planen und evaluierbar gestalten. Handreichung zum logischen Modell. München: Deutsches Jugendinstitut e.V.
13.
vgl. grundlegend Haubrich, K. (2009). Sozialpolitische Innovation ermöglichen. Die Entwicklung der rekonstruktiven Programmtheorie-Evaluation am Beispiel der Modellförderung in der Kinder- und Jugendhilfe. Münster.
14.
Logische Modelle werden beispielsweise in der Evaluation der Hamburger Fach-und Beratungsstelle für religiös begründete Radikalisierung (Legato) durch die Universität Hamburg oder in der durch die Fachgruppe "Politische Sozialisation und Demokratieförderung" am Deutschen Jugendinstitut durchgeführten Evaluation und wissenschaftlichen Begleitung des Bundesprogramms "Demokratie leben!" eingesetzt.

Björn Milbradt

Björn Milbradt

Dr. phil., ist Soziologe und Leiter der Fachgruppe "Politische Sozialisation und Demokratieförderung" am Deutschen Jugendinstitut in Halle (Saale). Zuletzt erschienen ist von ihm im Verlag Barbara Budrich die Monographie "Über autoritäre Haltungen in 'postfaktischen' Zeiten". Sein Forschungsinteresse gilt insbesondere Bildungs- und Sozialisationsprozessen, ihren politischen, gesellschaftlichen und institutionellen Hintergründen und Bedingungen sowie methodischen und methodologischen Aspekten ihrer Erforschung.


Nach oben © Bundeszentrale für politische Bildung Zur klassischen Website von bpb.de wechseln