Artikel

17.5: Qualitative Analyse - Mathematik


Oftmals ist alles, was wir über Schauspieler und Ereignisse wissen, einfaches Miteinander. Das heißt, entweder war ein Akteur anwesend oder nicht, und unsere Inzidenzmatrix ist binär. Dies liegt daran, dass die verschiedenen dimensionalen Methoden mit Ähnlichkeits-/Abstandsmatrizen arbeiten und Messungen wie Korrelationen (wie sie in der Zweimodus-Faktoranalyse verwendet werden) bei binären Daten irreführend sein können. Sogar die Korrespondenzanalyse, die für Binärdaten freundlicher ist, kann bei spärlichen Daten problematisch sein.

Ein alternativer Ansatz ist die Blockmodellierung. Die Blockmodellierung arbeitet direkt mit der binären Inzidenzmatrix, indem versucht wird, Zeilen und Spalten so zu permutieren, dass sie idealisierten Bildern so gut wie möglich entsprechen. Dieser Ansatz beinhaltet keine der Verteilungsannahmen, die bei der Skalierungsanalyse gemacht werden.

Im Prinzip könnte man jede Art von Blockmodell an Akteur-für-Ereignis-Inzidenzdaten anpassen. Wir werden zwei Modelle untersuchen, die sinnvolle (alternative) Fragen zu den Verknüpfungsmustern zwischen Akteuren und Ereignissen stellen. Beide Modelle können direkt in UCINET berechnet werden. Alternative Blockmodelle könnten natürlich unter Verwendung allgemeinerer Blockmodellierungsalgorithmen an Inzidenzdaten angepasst werden.

Zwei-Modus-Kern-Peripherie-Analyse

Die Kern-Peripherie-Struktur ist ein idealtypisches Muster, das sowohl die Zeilen als auch die Spalten in zwei Klassen einteilt. Einer der Blöcke auf der Hauptdiagonale (der Kern) ist ein Block hoher Dichte; der andere Block auf der Hauptdiagonalen (der Peripherie) ist ein Block geringer Dichte. Das Kern-Peripherie-Modell ist gegenüber der Dichte der Verbindungen in den nichtdiagonalen Blöcken gleichgültig.

Wenn wir das Kern-Peripherie-Modell auf Akteur-für-Akteur-Daten anwenden (siehe Netzwerk>Kern/Peripherie) versucht das Modell, eine Gruppe von Akteuren zu identifizieren, die eine hohe Bindungsdichte untereinander (den Kern) aufweisen, indem sie viele gemeinsame Ereignisse teilen, und eine andere Gruppe von Akteuren, die eine sehr geringe Bindungsdichte untereinander haben (die Peripherie), indem sie wenige gemeinsame Veranstaltungen. Akteure im Kern können ihr Handeln koordinieren, diejenigen in der Peripherie nicht. Folglich sind Akteure im Kern im Austausch mit Akteuren in der Peripherie strukturell im Vorteil.

Wenn wir das Kern-Peripherie-Modell auf Akteur-für-Ereignis-Daten anwenden (Netzwerk>2-Modus>Kategorischer Kern/Peripherie) suchen wir das gleiche idealisierte "Bild" eines Blocks hoher und niedriger Dichte entlang der Hauptdiagonale. Aber jetzt ist die Bedeutung etwas anders.

Der "Kern" besteht aus einer Partition von Akteuren, die eng mit jedem der Ereignisse in einer Ereignispartition verbunden sind; und gleichzeitig eine Partition von Ereignissen, die eng mit den Akteuren in der Kernpartition verbunden sind. Der „Kern“ ist also ein Cluster von häufig gemeinsam auftretenden Akteuren und Veranstaltungen. Die "Peripherie" besteht aus einer Aufteilung von Akteuren, die nicht mit denselben Ereignissen zusammenfallen; und eine Aufteilung von Ereignissen, die disjunkt sind, weil sie keine gemeinsamen Akteure haben.

Netzwerk>2-Modus>Kategorischer Kern/Peripherie sucht mit numerischen Methoden nach der Aufteilung von Akteuren und Ereignissen, die dem idealisierten Bild möglichst nahe kommt. Abbildung 17.16 zeigt einen Teil der Ergebnisse der Anwendung dieser Methode auf die Partizipation (nicht Partizipation) in den kalifornischen Spender- und Initiativendaten.

Abbildung 17.16: Kategorisches Kern-Peripherie-Modell von kalifornischen 1-Millionen-Dollar-Gebern und Stimmzettelinitiativen (abgeschnitten)

Die numerische Suchmethode von Netzwerk>2-Modus>Kategorischer Kern/Peripherie ist ein genetischer Algorithmus, und das Maß der Anpassungsgüte wird in Form eines "Fitness"-Scores angegeben (0 bedeutet schlechte Anpassung, 1 bedeutet ausgezeichnete Anpassung). Sie können die Güte des Ergebnisses auch beurteilen, indem Sie die Dichtematrix am Ende der Ausgabe untersuchen. Wenn das Blockmodell vollständig erfolgreich war, sollte der 1,1-Block eine Dichte von Eins haben und der 2,2-Block sollte eine Dichte von Null haben. Das Modell hier ist zwar alles andere als perfekt, aber gut genug, um ernst genommen zu werden.

Die Blockmatrix zeigt einen "Kern", der sich aus der Demokratischen Partei, einer Reihe großer Gewerkschaften und dem Bauindustrieverband zusammensetzt, die alle mit hoher Wahrscheinlichkeit an einer beträchtlichen Anzahl von Initiativen teilnehmen (Proposition 23 bis Proposition 18). Der Rest der Akteure wird in die Peripherie eingeordnet, da beide weniger häufig teilnehmen und nur wenige Probleme haben. Eine beträchtliche Anzahl von Themen wird auch in dem Sinne als "peripher" eingestuft, dass sie wenige Geber anziehen und diese Geber wenig gemeinsam haben. Wir sehen auch (oben rechts), dass Kernakteure zu einem gewissen Grad (0,179) an Randthemen beteiligt sind. Unten links sehen wir, dass periphere Akteure etwas stärker (0,260) an Kernthemen partizipieren.

Zwei-Modus-Fraktionsanalyse

Ein alternatives Blockmodell ist das von "Fraktionen". Fraktionen sind Gruppierungen mit einer hohen Dichte innerhalb der Gruppe und einer geringen Bindungsdichte zwischen den Gruppen. Netzwerk>Untergruppen>Fraktionen passt dieses Blockmodell an One-Mode-Daten an (für eine beliebige benutzerdefinierte Anzahl von Fraktionen). Netzwerk>2-Modus>2-Modus-Fraktionen passt denselben Modelltyp an Daten mit zwei Modi an (aber nur für zwei Fraktionen).

Wenn wir das Fraktionsmodell auf Ein-Modus-Akteursdaten anwenden, versuchen wir, zwei Gruppen von Akteuren zu identifizieren, die eng miteinander verbunden sind, indem sie an allen gleichen Veranstaltungen teilnehmen, aber sehr lose mit Mitgliedern anderer Fraktionen und den Veranstaltungen verbunden sind, die binde sie zusammen. Wenn wir die Idee der Fraktionen in einer Ein-Modus-Analyse auf Ereignisse anwenden würden, würden wir versuchen, Ereignisse zu identifizieren, die durch genau dieselben Teilnehmer eng miteinander verbunden sind.

Netzwerk>2-Modus>2-Modus-Fraktionen wendet den gleichen Ansatz auf die rechteckige Akteur-zu-Ereignis-Matrix an. Dabei versuchen wir gemeinsame Gruppierungen von Akteuren und Ereignissen zu finden, die sich möglichst gegenseitig ausschließen. Im Prinzip könnte es mehr als zwei solcher Fraktionen geben. Abbildung 17.17 zeigt die Ergebnisse des Two-Mode-Fraktionen-Blockmodells zur Beteiligung von Top-Gebern an politischen Initiativen.

Abbildung 17.17: Zwei-Mode-Fraktionsmodell von kalifornischen 1-Millionen-Dollar-Spendern und Stimmzettelinitiativen (abgeschnitten)

Es stehen zwei Maße für die Güte der Anpassung zur Verfügung. Zuerst haben wir unseren "Fitness"-Score, der die Korrelation zwischen den beobachteten Scores (0 oder 1) und den Scores ist, die in jedem Block vorhanden sein "sollten". Die Dichten in den Blöcken geben uns auch Auskunft über die Passungsgüte. Für eine Fraktionsanalyse wäre ein ideales Muster dichte 1-Blöcke entlang der Diagonalen (viele Bindungen innerhalb von Gruppen) und Null-Blöcke abseits der Diagonale (Bindungen zwischen Gruppen).

Die Anpassung des Zwei-Fraktions-Modells ist nicht so beeindruckend wie die Anpassung des Kern-Peripherie-Modells. Dies legt nahe, dass ein „Bild“ der kalifornischen Politik als einer von zwei getrennten und weitgehend unzusammenhängenden Themen-Akteur-Räumen nicht so nützlich ist wie ein Bild eines hochintensiven Kerns von Akteuren und Themen, gepaart mit einer ansonsten disjunkten Reihe von Themen und Teilnehmern.

Die Blockierung selbst ist auch nicht sehr ansprechend, da die meisten Akteure einer Fraktion zugeordnet sind (mit einer bescheidenen Dichte von 0,401). Die zweite Fraktion ist klein und hat eine Dichte (0,299), die sich nicht sehr von den nichtdiagonalen Blöcken unterscheidet. Nach wie vor besteht das Blockieren von Akteuren durch Ereignisse darin, Gruppen von Akteuren und Ereignissen zusammenzufassen, die sich gegenseitig definieren.


Qualitative Analyse

Sehr oft ist es fast unmöglich, explizit oder implizit die Lösungen eines Systems (insbesondere nichtlineare) zu finden. Sowohl der qualitative als auch der numerische Ansatz sind wichtig, da wir daraus Rückschlüsse ziehen können, unabhängig davon, ob wir die Lösungen kennen oder nicht.

Denken Sie daran, was wir für autonome Gleichungen gemacht haben. Zuerst suchten wir nach den Gleichgewichtspunkten und kamen dann in Verbindung mit dem Existenz- und Eindeutigkeitssatz zu dem Schluss, dass Nichtgleichgewichtslösungen entweder steigen oder fallen. Dies ist das Ergebnis der Betrachtung des Vorzeichens der Ableitung. Was ist also für autonome Systeme passiert? Denken Sie zunächst daran, dass die Komponenten der Geschwindigkeitsvektoren und sind. Diese Vektoren geben die Bewegungsrichtung entlang der Trajektorien an. Wir haben die vier natürlichen Richtungen (links unten, links oben, rechts unten und rechts oben) und die anderen vier Richtungen (links, rechts, oben und unten). Diese Richtungen erhält man, indem man sich die Vorzeichen von und anschaut, ob sie gleich 0 sind. Wenn beide Null sind, dann haben wir einen Gleichgewichtspunkt.

Beispiel. Betrachten Sie das Modell, das zwei Arten beschreibt, die um dieselbe Beute konkurrieren

Konzentrieren wir uns nur auf den ersten Quadranten und . Zuerst suchen wir nach den Gleichgewichtspunkten. Wir müssen haben

Algebraische Manipulationen implizieren

Die Gleichgewichtspunkte sind (0,0), (0,2), (1,0) und .
Betrachten Sie den Bereich R begrenzt durch die x-Achse, die y-Achse, die Linie 1-x - y =0 und die Linie 2-3 x - y =0.

Tatsächlich haben wir, wenn wir uns den ersten Quadranten ansehen, drei weitere Regionen, die wir der obigen hinzufügen können. Die Bewegungsrichtung hängt davon ab, in welcher Region wir uns befinden (siehe Bild unten)

Die Grenzen dieser Bereiche sind bei der Bestimmung der Bewegungsrichtung entlang der Trajektorien sehr wichtig. Tatsächlich hilft es, die Trajektorien wie das Steigungsfeld für autonome Gleichungen zu visualisieren. Diese Grenzen werden als Nulllinien bezeichnet.

Betrachten Sie das autonome System

Die x-Nulllinie ist die Menge von Punkten, bei der und die y-Nulllinie ist die Menge von Punkten, bei denen . Offensichtlich sind die Schnittpunkte zwischen x-Nullklinke und y-Nullklinke genau die Gleichgewichtspunkte. Beachten Sie, dass entlang der x-Nulllinie die Geschwindigkeitsvektoren vertikal sind, während die Geschwindigkeitsvektoren entlang der y-Nulllinie horizontal sind. Beachten Sie, dass die Richtung des Geschwindigkeitsvektors dieselbe sein muss, solange wir entlang einer Nulllinie reisen, ohne einen Gleichgewichtspunkt zu überqueren. Sobald wir einen Gleichgewichtspunkt überqueren, ändert sich möglicherweise die Richtung (von oben nach unten oder von rechts nach links und umgekehrt).

Beispiel. Zeichnen Sie die Nulllinien für das autonome System und die Geschwindigkeitsvektoren entlang dieser.

Die x-Nullkline sind gegeben durch

während die y-Nullkline gegeben sind durch

Um die Richtung der Geschwindigkeitsvektoren entlang der Nulllinien zu bestimmen, wählen wir einen Punkt auf der Nulllinie und bestimmen die Richtung des Geschwindigkeitsvektors an diesem Punkt. Der Geschwindigkeitsvektor entlang des durch Gleichgewichtspunkte begrenzten Segments der Nulllinie, das den gegebenen Punkt enthält, hat die gleiche Richtung. Betrachten Sie zum Beispiel den Punkt (2,0). Der Geschwindigkeitsvektor an diesem Punkt ist (-1,0). Daher ist der Geschwindigkeitsvektor an jedem Punkt (x,0), mit x > 1, horizontal (wir befinden uns auf der y-Nulllinie) und zeigt nach links. Das Bild unten zeigt die Nulllinien und die Geschwindigkeitsvektoren entlang ihnen.

In diesem Beispiel sind die Nulllinien Linien. Im Allgemeinen können wir jede Art von Kurven haben.

Beispiel. Zeichnen Sie die Nulllinien für das autonome System

Die x-Nullkline sind gegeben durch

während die y-Nullkline gegeben sind durch

Daher ist die y-Nullkline die Vereinigung einer Geraden mit der Ellipse

Informationen aus den Nulllinien

Für die meisten nichtlinearen autonomen Systeme ist es unmöglich, die Lösungen explizit zu finden. Wir können numerische Techniken verwenden, um eine Vorstellung von den Lösungen zu erhalten, aber die qualitative Analyse kann einige Fragen kostengünstiger und schneller beantworten als die numerische Technik. Zum Beispiel Fragen zum langfristigen Verhalten von Lösungen. Die Nullklinen spielen im qualitativen Ansatz eine zentrale Rolle. Lassen Sie uns dies an folgendem Beispiel veranschaulichen.

Beispiel. Diskutieren Sie das Verhalten der Lösungen des autonomen Systems

Wir haben bereits die Nulllinien und die Richtung der Geschwindigkeitsvektoren entlang dieser Nulllinien gefunden.

Aus diesen Nulllinien entstehen vier Regionen, in denen die Bewegungsrichtung konstant ist. Lassen Sie uns den Bereich besprechen, der von der x-Achse, der y-Achse, der Linie 1-x - y =0 und der Linie 2-3 x - y =0 begrenzt wird. Dann ist die Bewegungsrichtung links unten. Ein sich bewegendes Objekt, das an einer Position in diesem Bereich beginnt, folgt also einem nach links unten verlaufenden Pfad. Wir haben drei Möglichkeiten Erste Wahl: Die Flugbahn stirbt am Gleichgewichtspunkt . Zweite Wahl: Der Startpunkt liegt oberhalb der Trajektorie, die am Gleichgewichtspunkt stirbt. Dann trifft die Flugbahn auf das Dreieck, das durch die Punkte , (0,1) und (0,2) definiert wird. Dann geht es nach oben links und stirbt am Gleichgewichtspunkt (0,2). Dritte Wahl: Der Startpunkt liegt unterhalb der Trajektorie, die am Gleichgewichtspunkt stirbt. Dann trifft die Flugbahn auf das Dreieck, das durch die Punkte , (1,0) und definiert wird. Dann geht es nach unten rechts und stirbt am Gleichgewichtspunkt (1,0).

Für die anderen Regionen sehen Sie sich das Bild unten an. Wir haben einige Lösungen für jede Region aufgenommen.

Bemerkungen. Wir sehen an diesem Beispiel, dass die Trajektorien, die am Gleichgewichtspunkt färben, entscheidend für die Vorhersage des Verhaltens der Lösungen sind. Diese beiden Trajektorien werden als Separatrix bezeichnet, weil sie die Regionen in verschiedene Unterregionen mit einem bestimmten Verhalten aufteilen. Sie zu finden ist ein sehr schwieriges Problem. Beachten Sie auch, dass sich die Gleichgewichtspunkte (0,2) und (1,0) wie Senken verhalten. Die Klassifikation von Gleichgewichtspunkten wird anhand der Approximation durch lineare Systeme diskutiert.


Was ist quantitative Analyse?

Quantitative Analyse wird oft mit numerischer Analyse in Verbindung gebracht, bei der Daten gesammelt, klassifiziert und dann für bestimmte Ergebnisse mit einer Reihe statistischer Methoden berechnet werden. Die Daten werden in großen Stichproben zufällig ausgewählt und anschließend analysiert. Der Vorteil der quantitativen Analyse Die Ergebnisse können auf eine allgemeine Bevölkerung angewendet werden, indem in der Stichprobe entwickelte Forschungsmuster verwendet werden. Dies ist ein Mangel der qualitativen Datenanalyse aufgrund der begrenzten Verallgemeinerung der Ergebnisse.

Die quantitative Analyse ist objektiver. Es versucht, das Eintreten von Ereignissen zu verstehen und diese dann mit statistischen Methoden zu beschreiben. Mehr Klarheit kann jedoch durch die gleichzeitige Anwendung qualitativer und quantitativer Methoden erreicht werden. Die quantitative Analyse belässt normalerweise die zufälligen und seltenen Ereignisse in den Forschungsergebnissen, während die qualitative Analyse sie berücksichtigt.

Bei der quantitativen Analyse geht es im Allgemeinen um messbare Größen wie Gewicht, Länge, Temperatur, Geschwindigkeit, Breite und viele mehr. Die Daten können in tabellarischer Form oder in einer beliebigen Diagrammdarstellung unter Verwendung von Grafiken oder Diagrammen ausgedrückt werden. Quantitative Daten können als kontinuierlich oder diskret klassifiziert werden und werden oft durch Umfragen, Beobachtungen, Experimente oder Interviews gewonnen.

Es gibt jedoch Einschränkungen bei der quantitativen Analyse. Zum Beispiel kann es schwierig sein, relativ neue Konzepte mithilfe der quantitativen Analyse aufzudecken, und hier kommt die qualitative Analyse ins Spiel, um herauszufinden, „warum“ ein bestimmtes Phänomen auftritt. Deshalb werden die Methoden oft gleichzeitig verwendet.


Menschen verstehen und qualitative Analyse

Eine qualitative Analyse kann fast so klingen, als würde man auf sein Bauchgefühl hören, und tatsächlich würden viele qualitative Analysten argumentieren, dass das Bauchgefühl seinen Platz in diesem Prozess hat. Das bedeutet jedoch nicht, dass es sich nicht um einen rigorosen Ansatz handelt. Tatsächlich kann sie viel mehr Zeit und Energie verbrauchen als eine quantitative Analyse.

Der Mensch steht im Mittelpunkt der qualitativen Analyse. Ein Investor kann damit beginnen, das Management eines Unternehmens einschließlich seiner Ausbildung und seines beruflichen Hintergrunds kennenzulernen. Einer der wichtigsten Faktoren ist ihre Erfahrung in der Branche. Abstrakter ausgedrückt, haben sie harte Arbeit und umsichtige Entscheidungen vorzuweisen, oder sind sie besser darin, die richtigen Leute zu kennen – oder mit ihnen verwandt zu sein? Auch ihr Ruf ist entscheidend: Respektieren sie ihre Kollegen und Kollegen? Es lohnt sich auch, ihre Beziehungen zu Geschäftspartnern zu erkunden, da diese sich direkt auf den Betrieb auswirken können.


Qualitative Datenanalyse

Qualitative Daten beziehen sich auf nicht-numerische Informationen wie Interviewtranskripte, Notizen, Video- und Audioaufzeichnungen, Bilder und Textdokumente. Die qualitative Datenanalyse lässt sich in die folgenden fünf Kategorien einteilen:

1. Inhaltsanalyse. Dies bezieht sich auf den Prozess der Kategorisierung von verbalen oder verhaltensbezogenen Daten, um die Daten zu klassifizieren, zusammenzufassen und tabellarisch darzustellen.

2. Narrative Analyse. Diese Methode beinhaltet die Neuformulierung von Geschichten, die von den Befragten präsentiert werden, wobei der Kontext jedes Falls und die unterschiedlichen Erfahrungen jedes Befragten berücksichtigt werden. Mit anderen Worten, Narrative Analyse ist die Überprüfung primärer qualitativer Daten durch den Forscher.

3. Diskursanalyse. Eine Methode zur Analyse von natürlich vorkommendem Sprechen und allen Arten von geschriebenem Text.

4. Rahmenanalyse. Dies ist eine fortgeschrittenere Methode, die aus mehreren Phasen besteht, wie z. B. Einarbeitung, Identifizierung eines thematischen Rahmens, Kodierung, Diagrammerstellung, Kartierung und Interpretation.

5. Geerdete Theorie. Diese Methode der qualitativen Datenanalyse beginnt mit einer Einzelfallanalyse, um eine Theorie zu formulieren. Dann werden weitere Fälle untersucht, um zu sehen, ob sie zur Theorie beitragen.

Eine qualitative Datenanalyse kann in den folgenden drei Schritten durchgeführt werden:

Schritt 1: Codes entwickeln und anwenden. Codierung kann als Kategorisierung von Daten erklärt werden. Ein „Code“ kann ein Wort oder eine kurze Phrase sein, die ein Thema oder eine Idee repräsentiert. Alle Codes müssen mit aussagekräftigen Titeln versehen werden. Eine Vielzahl nicht quantifizierbarer Elemente wie Ereignisse, Verhaltensweisen, Aktivitäten, Bedeutungen usw. können kodiert werden.

Es gibt drei Arten der Codierung:

  1. Offene Codierung. Die anfängliche Organisation von Rohdaten, um zu versuchen, sie zu verstehen.
  2. Axiale Kodierung. Verknüpfung und Verknüpfung der Kategorien von Codes.
  3. Selektive Codierung. Formulieren der Geschichte durch das Verbinden der Kategorien.

Die Codierung kann manuell oder mit qualitativer Datenanalysesoftware wie z

NVivo, Atlas ti 6.0, HyperRESEARCH 2.8, Max QDA und andere.

Bei der manuellen Codierung können Sie Ordner, Aktenschränke, Brieftaschen usw. verwenden, um Materialien zu sammeln, die Beispiele für ähnliche Themen oder analytische Ideen sind. Die manuelle Codierung in der qualitativen Datenanalyse gilt zu Recht als arbeitsintensiv, zeitaufwändig und veraltet.

Bei der computerbasierten Codierung werden dagegen physische Dateien und Schränke durch computerbasierte Verzeichnisse und Dateien ersetzt. Bei der Auswahl einer Software für die qualitative Datenanalyse müssen Sie eine Vielzahl von Faktoren berücksichtigen, wie z. B. Art und Menge der zu analysierenden Daten, Zeitaufwand für die Beherrschung der Software und Kostenüberlegungen.

Darüber hinaus ist es wichtig, vor der Anwendung einer spezifischen Software zur qualitativen Datenanalyse eine Bestätigung von Ihrem Dissertationsbetreuer einzuholen.

Die folgende Tabelle enthält Beispiele für Forschungstitel, zu codierende Elemente und die Identifizierung relevanter Codes:

Unterstützung von gemeinnützigen Kursen

Qualitative Datenkodierung

Schritt 2: Identifizieren von Themen, Mustern und Beziehungen. Anders als bei quantitativen Methoden gibt es bei der qualitativen Datenanalyse keine allgemein anwendbaren Techniken, die zur Generierung von Erkenntnissen eingesetzt werden können. Die analytischen und kritischen Denkfähigkeiten des Forschers spielen eine wichtige Rolle bei der Datenanalyse in qualitativen Studien. Daher kann keine qualitative Studie wiederholt werden, um die gleichen Ergebnisse zu erzielen.

Dennoch gibt es eine Reihe von Techniken, die Sie verwenden können, um gemeinsame Themen, Muster und Beziehungen innerhalb der Antworten von Beispielgruppenmitgliedern in Bezug auf Codes zu identifizieren, die in der vorherigen Phase festgelegt wurden.

Zu den beliebtesten und effektivsten Methoden der qualitativen Dateninterpretation gehören insbesondere die folgenden:

  • Wort- und Satzwiederholungen – Scannen der Primärdaten nach Wörtern und Phrasen, die von den Befragten am häufigsten verwendet werden, sowie nach Wörtern und Phrasen, die mit ungewöhnlichen Emotionen verwendet werden
  • Primär- und Sekundärdatenvergleiche – Vergleich der Ergebnisse von Interviews/Fokusgruppen/Beobachtungen/jeder anderen qualitativen Datenerhebungsmethode mit den Ergebnissen der Literaturrecherche und Diskussion der Unterschiede zwischen ihnen
  • Suche nach fehlenden Informationen – Diskussionen darüber, welche Aspekte des Themas von den Befragten nicht erwähnt wurden, obwohl Sie erwartet haben, dass sie erwähnt werden
  • Metaphern und Analoga – Vergleich der Ergebnisse der Primärforschung mit Phänomenen aus einem anderen Bereich und Diskussion von Gemeinsamkeiten und Unterschieden.

Schritt 3: Daten zusammenfassen. In dieser letzten Phase müssen Sie Forschungsergebnisse mit Hypothesen oder Forschungszielen und -zielen verknüpfen. Beim Schreiben von Datenanalysekapiteln können Sie bemerkenswerte Zitate aus dem Transkript verwenden, um wichtige Themen innerhalb der Ergebnisse und mögliche Widersprüche hervorzuheben.

Es ist wichtig zu beachten, dass der oben beschriebene Prozess der qualitativen Datenanalyse allgemein ist und verschiedene Arten von qualitativen Studien leicht unterschiedliche Methoden der Datenanalyse erfordern können.

Meine E-Buch, Der ultimative Leitfaden zum Schreiben einer Dissertation in Betriebswirtschaftslehre: ein schrittweiser Ansatz step enthält eine detaillierte, aber einfache Erklärung von Methoden der qualitativen Datenanalyse. Das E-Book erläutert alle Phasen des Forschungsprozesses von der Auswahl des Forschungsgebiets bis hin zum Schreiben einer persönlichen Reflexion. Wichtige Elemente von Dissertationen wie Forschungsphilosophie, Forschungsansatz, Forschungsdesign, Methoden der Datenerhebung und Datenanalyse werden in einfachen Worten erklärt. John Dudovskiy


17.5: Qualitative Analyse - Mathematik

Lernziel

Unterscheiden zwischen qualitativen und quantitativen Ansätzen.

Hong ist ein Physiotherapeut, der Kurse zur Bewertung von Verletzungen an der University of Utah unterrichtet. Mit der kürzlich erfolgten Umstellung auf Online für den Rest des Semesters interessiert sich Hong für die Auswirkungen auf den Kompetenzerwerb der Studenten für die Bewertung von Verletzungen. Er möchte sowohl quantitative als auch qualitative Ansätze verwenden – er plant, die Testergebnisse früherer Schüler mit den aktuellen Testergebnissen der Schüler zu vergleichen. Er plant auch, aktuelle Studenten zu ihren Erfahrungen mit virtuellen Übungen zur Bewertung von Verletzungen zu befragen. Welche spezifischen Methoden des Studiendesigns wird Hong anwenden?

Den Beweisen einen Sinn geben

Bei der Durchführung einer Literaturrecherche und der Überprüfung von Forschungsartikeln ist es wichtig, ein allgemeines Verständnis der Forschungsarten und Daten zu haben, die Sie von verschiedenen Studienarten erwarten.

In diesem Artikel überprüfen wir zwei große Kategorien von Studienmethoden, quantitative und qualitative, und diskutieren einige ihrer Subtypen oder Designs und die Art der Daten, die sie generieren.

Quantitative vs. qualitative Ansätze

Quantitativ

Qualitativ

Quantitativ ist messbar. Es wird oft mit einer eher traditionellen wissenschaftlichen Methode in Verbindung gebracht, Daten auf organisierte und objektive Weise zu sammeln, damit die Ergebnisse auf andere Personen oder Bevölkerungsgruppen verallgemeinert werden können. Quantitative Designs basieren auf Wahrscheinlichkeiten oder Wahrscheinlichkeiten – sie verwenden „p“-Werte, Power-Analysen und andere wissenschaftliche Methoden, um die Genauigkeit und Reproduzierbarkeit der Ergebnisse für andere Populationen sicherzustellen. Quantitative Designs können experimentell, quasi-experimentell, deskriptiv oder korrelativ sein.

Qualitativ ist normalerweise subjektiver, obwohl sie wie die quantitative Forschung auch einen systematischen Ansatz verfolgt. Qualitative Forschung wird im Allgemeinen bevorzugt, wenn sich die klinische Frage auf Lebenserfahrungen oder den Sinn konzentriert. Qualitative Forschung untersucht die Komplexität, Tiefe und Vielfalt einer bestimmten Situation aus der Perspektive der Informanten – bezogen auf die Person oder Personen, die die Informationen bereitstellen. Dies können der Patient, das Pflegepersonal des Patienten, die Familienmitglieder des Patienten usw. sein. Die Informationen können auch aus den Beobachtungen des Prüfers oder Forschers stammen. Im Zentrum der qualitativen Forschung steht die Überzeugung, dass die Realität auf Wahrnehmungen basiert und für jede Person unterschiedlich sein kann und sich im Laufe der Zeit oft ändert.

Unterschiede im Studiendesign

Quantitativ

Qualitativ

  • Experimental – Ursache und Wirkung (wenn A, dann B)
  • Quasi-experimentell – untersucht auch die Ursache, wird verwendet, wenn nicht alle Variablen kontrolliert werden können
  • Beschreibend – Merkmale einer bestimmten Situation oder Gruppe untersuchen
  • Korrelations – Beziehungen zwischen zwei oder mehr Variablen untersuchen
  • Phänomenologische – untersucht die gelebte Erfahrung innerhalb einer bestimmten Bedingung oder Situation
  • Ethnografisch – die Kultur einer Gruppe von Menschen untersuchen
  • Geerdete Theorie – mithilfe eines Forschungsproblems eine Theorie entdecken und entwickeln

Quantitative Designmethoden

Quantitative Designs lassen sich typischerweise in vier Kategorien einteilen: experimentell, quasi-experimentell, deskriptiv oder korrelativ. Lassen Sie uns über diese verschiedenen Typen sprechen. Bevor wir jedoch beginnen, müssen wir kurz den Unterschied zwischen unabhängigen und abhängigen Variablen betrachten.

Das unabhängige Variable ist die Variable, die manipuliert wird oder die variiert. Sie wird manchmal als „Prädiktor“ oder „Behandlungsvariable“ bezeichnet.

Das abhängige Variable ist die Ergebnis- (oder Antwort-) Variable. Es wird vermutet, dass Änderungen der abhängigen Variablen durch die unabhängige Variable verursacht oder beeinflusst werden.

Experimental

In experimentellen Designs gibt es oft Behandlungsgruppen und Kontrollgruppen. Dieses Studiendesign sucht nach Ursache und Wirkung (wenn A, dann B), also erfordert es die Kontrolle über mindestens eine der unabhängigen Variablen oder Behandlungsvariablen. Beim experimentellen Design wird die Behandlung einigen der Probanden (als „Versuchsgruppe“ bezeichnet) und anderen (als „Kontrollgruppe“ bezeichnet) nicht verabreicht. Die Probanden werden nach dem Zufallsprinzip zugewiesen, was bedeutet, dass sie die gleiche Chance haben, der Kontrollgruppe oder der Experimentalgruppe zugeordnet zu werden. Dies ist das stärkste Design zum Testen von Ursache-Wirkungs-Beziehungen, da die Randomisierung Verzerrungen reduziert. Tatsächlich glauben die meisten Forscher, dass eine randomisierte kontrollierte Spur die einzige Art von Forschungsstudie ist, bei der wir auf die Ursache schließen können (wenn A, dann B). Die Schwierigkeit bei einer randomisierten kontrollierten Studie besteht darin, dass die Ergebnisse möglicherweise nicht unter allen Umständen für alle Patientenpopulationen verallgemeinert werden können. Daher müssen Sie wie bei jeder Forschungsstudie die Anwendung der Ergebnisse auf Ihre Patienten in Ihrem Umfeld in Betracht ziehen.

Quasi-experimentell

Quasi-experimentelle Studien versuchen auch, eine (kausale) Beziehung zwischen Ursache und Wirkung zu identifizieren, obwohl sie weniger aussagekräftig sind als experimentelle Designs. Dies liegt daran, dass ihnen ein oder mehrere Merkmale eines echten Experiments fehlen. Sie können beispielsweise keine zufällige Zuweisung enthalten oder keine Kontrollgruppe haben. Wie so oft in der „realen Welt“ können klinische Versorgungsvariablen aus ethischen, praktischen oder steuerlichen Gründen oft nicht kontrolliert werden. Daher wird der quasi-experimentelle Ansatz verwendet, wenn eine randomisierte kontrollierte Studie nicht möglich ist. Wenn sich beispielsweise herausstellte, dass die neue Behandlung das Fortschreiten der Krankheit stoppte, wäre es nicht mehr ethisch vertretbar, sie durch die Bildung einer Kontrollgruppe anderen vorzuenthalten.

Beschreibend

Deskriptive Studien geben uns eine genaue Darstellung der Merkmale einer bestimmten Situation oder Gruppe. Sie werden häufig verwendet, um zu bestimmen, wie oft etwas auftritt, die Wahrscheinlichkeit, dass etwas auftritt, oder um Informationen zu kategorisieren. Nehmen wir zum Beispiel an, wir wollten uns die Besuchsrichtlinie auf der Intensivstation ansehen und beschreiben, wie sich die Umsetzung einer offenen Besuchsrichtlinie auf die Zufriedenheit des Pflegepersonals auswirkte. Wir könnten ein Forschungsinstrument wie eine Likert-Skala (5 = sehr zufrieden und 1 = sehr unzufrieden) verwenden, um zu verstehen, wie zufrieden Pflegekräfte als Gruppe mit dieser Richtlinie sind.

Korrelations

Korrelationsforschung umfasst die Untersuchung der Beziehung zwischen zwei oder mehr Variablen. Der primäre Zweck besteht darin, die Art der Beziehung zu erklären, nicht die Ursache und Wirkung zu bestimmen. Wenn Sie beispielsweise untersuchen möchten, ob bei Erstgebärenden, die eine elektive Geburtseinleitung haben, die Wahrscheinlichkeit eines Kaiserschnitts höher ist als bei Erstgebärenden, die auf natürliche Weise in die Wehen eintreten, wären die unabhängigen Variablen „Wahleinleitung“ und „Eintritt“. natürlich wehen“ (weil es sich um Variablen handelt, die „variieren“) und die Ergebnisvariable „Kaiserschnitt“ lautet ' Kaiserschnittgeburten, weil wir keine Kontrolle über die Variablen haben. Wir können nur von einer erhöhten Wahrscheinlichkeit berichten.

Qualitative Gestaltungsmethoden

Qualitative Methoden tauchen tief in Erfahrungen, soziale Prozesse und Subkulturen ein. Qualitative Studien fallen im Allgemeinen unter drei Arten von Designs: Phänomenologie, Ethnographie und Grounded Theory.

Phänomenologie

Bei diesem Ansatz wollen wir die gelebte Erfahrung oder Bedeutung von Personen mit einem bestimmten Zustand oder einer bestimmten Situation verstehen und beschreiben. Phänomenologische Fragen könnten beispielsweise lauten: „Wie ist es für einen Jugendlichen, ein jüngeres Geschwister mit einer unheilbaren Krankheit zu haben?“ oder „Was ist die gelebte Erfahrung bei der Pflege eines älteren, ans Haus gebundenen, pflegebedürftigen Elternteils?“

Ethnographie

Ethnographische Studien konzentrieren sich auf die Kultur einer Gruppe von Menschen. Die Annahme hinter Ethnographien ist, dass sich Gruppen von Individuen zu einer Art „Kultur“ entwickeln, die die Art und Weise leitet, wie Mitglieder dieser Kultur oder Gruppe die Welt sehen. Bei dieser Art von Studie konzentriert sich die Forschung auf die teilnehmende Beobachtung, bei der der Forscher ein aktiver Teilnehmer dieser Kultur wird, um seine Erfahrungen zu verstehen. So könnte beispielsweise die Pflege als Berufskultur und die Abteilung eines Krankenhauses als Subkultur betrachtet werden. Ein spezifisches Beispiel für die Pflegekultur war eine 2006 von Deitrick und Kollegen durchgeführte Studie. Sie verwendeten ethnografische Methoden, um Probleme im Zusammenhang mit der Beantwortung von Patientenrufleuchten auf einer medizinisch-chirurgischen stationären Station zu untersuchen. Die einzige Pflegeeinheit war die zu untersuchende „Kultur“.

Geerdete Theorie

Grounded-Theory-Forschung beginnt mit einem allgemeinen Forschungsproblem, wählt Personen aus, die das anfängliche Verständnis der Frage am ehesten klären können, und verwendet eine Vielzahl von Techniken (Interview, Beobachtung, Dokumentenprüfung, um nur einige zu nennen), um eine Theorie zu entdecken und zu entwickeln. Zum Beispiel verwendete ein Pflegeforscher einen Grounded-Theory-Ansatz, um zu erklären, wie afroamerikanische Frauen mit unterschiedlichem sozioökonomischem Hintergrund Entscheidungen über das Mammographie-Screening treffen. Da afroamerikanische Frauen in der Vergangenheit weniger Mammographien haben (und daher niedrigere Überlebensraten für die Erkennung im späteren Stadium), kann das Verständnis ihres Entscheidungsprozesses dem Anbieter helfen, wirksamere Bemühungen zur Gesundheitsförderung zu unterstützen.

Fazit

In der Lage zu sein, die Unterschiede zwischen qualitativer und quantitativer Forschung zu erkennen und sich mit den jeweiligen Subtypen vertraut zu machen, kann eine Literaturrecherche etwas weniger entmutigend machen.


Mathematik deckt versteckte Muster in diesen historischen Meisterwerken der Kunst auf

Kunsthistoriker haben etwas verpasst unglaublich wichtig hinter den Leinwänden der größten Werke der Kunst lauern.

Ob es die Decke der Sixtinischen Kapelle von Michelangelo ist, Andy Warhols Campbell's Suppendosen oder die schimmernden Höhlenmalereien alter Menschen – die Erschaffung von Kunst ist eine von Natur aus menschliche Geschichte.

Kunsthistoriker haben ihr Leben der Sezierung und Diskussion dieser einflussreichen Werke gewidmet. Aber laut einer neuen Studie, die diese Woche im Journal veröffentlicht wurde Proceedings of the National Academy of Sciences, Wissenschaftler haben etwas verpasst unglaublich wichtig hinter den Leinwänden einiger der berühmtesten Meisterwerke lauern.

Durch die Anwendung einer mathematischen Formel auf fast 15.000 Kunstwerke, die in 500 Jahren geschaffen wurden, hat ein Team von Wissenschaftlern entdeckt versteckte Muster in diesen Meisterwerken. Damit verändern sie nicht nur, wie wir diese Kunst sehen, sondern auch umgedreht langjährige historische Theorien hinter einigen der berühmtesten Gemälde der Welt.

Using math to understand something as fundamentally human as art may sound counter-intuitive, but artists themselves have actually been doing it for centuries. By applying ratios, including the so-called "golden ratio," artists have long sought to recreate absolute beauty using mathematical harmony. In this study, the researchers do something a little different: They used mathematical ratios to uncover a hidden "metanarrative" within the painting process.

"From individual qualitative work of art historians emerges a metanarrative that remains difficult to evaluate," write the authors.

Individual interpretation is a kind of qualitative analysis that has reigned supreme in art history. As a result, more subtle, or less easily perceived quantitative patterns have been overlooked, the researchers say. To get around that problem, they argue that a systematic, quantitative approach could be used alongside such qualitative analyses.

With any luck, this metanarrative could uncover previously ignored, or glossed over, anomalies in the world of art history.

Mathematical Masters — To build their mathematical framework, the researchers sourced digital scans of 14,912 landscape paintings spanning the Western renaissance to contemporary works.

With these paintings (digitally) in-hand, the researchers applied a mathematical algorithm that draws smaller and smaller partitions between areas with bigger differences between colors used. For example, the entire image would represent partition zero, and then partition number one would be drawn either horizontally or vertically between the two areas of the painting with the most color difference. While this operation could theoretically be done ad nauseam, the researchers chose to focus on partitions one and two.

They discovered that the overall composition of the landscapes, as determined by the direction of the partition, changed over time independently of the nationality of the artist.

"[T]he long-standing division of landscape art history by nation must be put into question, in favor of a broader comparative perspective," write the authors. "[And] library classification, metadata in visual resource collections, and the categorization of encyclopedia entries should follow suit."

They also uncovered instances when an individual artist's expression truly deviated from the overarching trends of the era. These iconoclasts may be overlooked in favor of a smoother, more "artificial," narrative of art history.

"[A] proper grand narrative of art history requires a multiplicity of perspectives, both qualitative and quantitative, as a great amount of nonlinear detail gets lost in an overly conventional mainstream narrative," the authors write in the study.

Room for improvement — While their samples did include a few works from Japanese and Chinese artists, the collection largely draws from the "canon of Western European art" — a shortcoming the researchers acknowledge and hope to broaden beyond in future studies.

In addition to the limited diversity of artworks used in this study, the authors write that the algorithm itself is also limited because it can only recognize partitions of straight lines and is not yet capable of handling something as seemingly mundane as a curve. The researchers hope their approach can be used as a fundamental background for future research that will expand on their initial techniques.

The technique could be used to investigate other forms of art as well, including photography, architecture, and typography.


Increasingly powerful computers and simplification algorithms permit us to obtain answers for increasingly complex computer-algebra problems. Consequently, we will continue to get results which often are incomprehensibly lengthy and complicated. However, a user of computer-algebra systems need not abandon hope when faced with such results. Often the user is interested in qualitative properties of a result rather than details of an analytical representation of the result. For example, is the result real? bounded? even? continuous? positive? monotonic? differentiable? or convex? Where, if any, are the singularities, zeros, and extrema? What are their orders? What is the local behavior in the neighborhood of these notable features, as exhibited perhaps by series expansions? Are there simple asymptotic representations as certain variables approach infinity?

This paper describes a program which automatically analyzes expressions for some of these properties. The user may enquire about a specific property, such as monotonicity, or he may simply invoke a single function which attempts to determine all of the properties addressed by the collection of more specific functions. The specific functions are appropriate when a user knows which properties are important for his application, but frequently he is ignorant of the most decisive questions or ignorant of specific available functions which automatically investigate the desired properties. The collective qualitative analysis function is intended as a sort of panic button, which hopefully will provide some pleasantly surprising results that serve as a point of departure for further analysis. This function is a tool for deciphering unwieldy expressions that otherwise defy understanding.

Many of the above qualitative properties have numerous testable characterizations, and only a few have been explored here. However, the results of this initial effort indicate that qualitative analysis programs are a promising means of extending the utility of computer algebra.


From insights to action: Suggesting, supposing, and steering

Thus far, our machine-human “bake-off” has demonstrated the important role humans play in data analysis and what value they bring to the activity. Every step of the way—in screening, sorting, and sensing—there is a need for not only human involvement but also human know-how to ensure the analysis’s accuracy and completeness. And the human’s job doesn’t typically end there. The whole point of data analysis is to provide not only insights, but also actionable recommendations—which our algorithm showed only limited capacity to do. In addition, research and insight collection are typically not one-off activities but components of a bigger ongoing research effort or portfolio. Human analysts, with their in-depth knowledge of the data, can help drive the company’s research agenda and sift through and prioritize various implementation plans, communications, and research strategy recommendations. An ideal human-machine research team drives the process by suggesting which data sets are usable and meaningful, moves on to supposing considerations based on contextual understanding to finally steering informed actions to meet key business objectives.


Footnotes

Publisher's Disclaimer: Taylor & Francis makes every effort to ensure the accuracy of all the information (the 𠇌ontent”) contained in the publications on our platform. However, Taylor & Francis, our agents, and our licensors make no representations or warranties whatsoever as to the accuracy, completeness, or suitability for any purpose of the Content. Any opinions and views expressed in this publication are the opinions and views of the authors, and are not the views of or endorsed by Taylor & Francis. The accuracy of the Content should not be relied upon and should be independently verified with primary sources of information. Taylor and Francis shall not be liable for any losses, actions, claims, proceedings, demands, costs, expenses, damages, and other liabilities whatsoever or howsoever caused arising directly or indirectly in connection with, in relation to or arising out of the use of the Content.


Qualitative analysis of a degenerate fixed point of a discrete predator–prey model with cooperative hunting

Shengfu Deng, School of Mathematical Sciences, Huaqiao University, Quanzhou, Fujian 362021, China.

School of Mathematical Sciences, Huaqiao University, Quanzhou, China

Minnan Science and Technology University, Quanzhou, China

School of Mathematical Sciences, Huaqiao University, Quanzhou, China

Shengfu Deng, School of Mathematical Sciences, Huaqiao University, Quanzhou, Fujian 362021, China.

Abstrakt

This paper investigates the qualitative properties near a degenerate fixed point of a discrete predator–prey model with cooperative hunting derived from the Lotka–Volterra model where the eigenvalues of the corresponding linear operator are ± 1. Applying the theory of the normal form and the Takens's theorem, we change the problem of this discrete model into the one of an ordinary differential system. With the technique of desingularization to blow up the degenerate equilibrium of the ordinary differential system, we obtain its qualitative properties. Utilizing the conjugacy between the discrete model and the time-one mapping of the vector field, we obtain the qualitative structures of this discrete model.


Schau das Video: Kvalitativ forskning: Peter Hougaard (Oktober 2021).