Artikel

17.4: Quantitative Analyse - Mathematik


Wenn wir mit einer großen Anzahl von Variablen arbeiten, die Aspekte eines Phänomens beschreiben (z. B. Items in einem Test als Mehrfachmaße des zugrunde liegenden Merkmals „Beherrschung des Themas“), richten wir unsere Aufmerksamkeit oft darauf, was diese Mehrfachmaße haben „ gemeinsam". Anhand von Informationen über die Kovariation zwischen den mehreren Kennzahlen können wir eine zugrunde liegende Dimension oder einen zugrunde liegenden Faktor ableiten; Sobald wir das getan haben, können wir unsere Beobachtungen entlang dieser Dimension verorten. Das Ziel der Faktoren- und Komponentenanalyse (und einiger anderer weniger gebräuchlicher Skalierungsverfahren) ist der Ansatz, einzelne Fälle in Bezug auf ihre Punktzahl auf Faktoren der gemeinsamen Varianz zwischen mehreren Indikatoren zu lokalisieren oder zu bewerten.

Wenn wir über unser Zwei-Modi-Problem nachdenken, könnten wir diese "Skalierungs"-Logik entweder auf Akteure oder auf Ereignisse anwenden. Das heißt, wir könnten die Ähnlichkeit der Akteure in Bezug auf ihre Teilnahme an Ereignissen "skalieren" oder indizieren - aber die Ereignisse nach der gemeinsamen Varianz zwischen ihnen gewichten. In ähnlicher Weise könnten wir die Ereignisse in Bezug auf die Muster der Mitbeteiligung von Akteuren "skalieren" - aber die Akteure nach ihrer Häufigkeit des gemeinsamen Auftretens gewichten. Techniken wie Werkzeuge>MDB und eine Faktor- oder Hauptkomponentenanalyse könnte verwendet werden, um entweder Akteure oder Ereignisse zu "skalieren".

Es ist auch möglich, diese Art von Skalierungslogiken auf Akteur-für-Ereignis-Daten anzuwenden. UCINET umfasst zwei eng verwandte faktoranalytische Techniken (Werkzeuge>2-Modus-Skalierung>SVD und Tools>2-Modus-Skalierungsfaktoranalyse), die die gemeinsame Varianz zwischen Akteuren und Ereignissen gleichzeitig untersuchen. UCINET beinhaltet auch Tools>2-Modus-Skalierung>Korrespondenz was dieselbe Logik auf binäre Daten anwendet. Sobald die zugrunde liegenden Dimensionen der gemeinsamen Varianz identifiziert sind, können wir beide Akteure und Ereignisse in denselben „Raum“ „abbilden“. Auf diese Weise können wir erkennen, welche Akteure in Bezug auf ihre Teilnahme an Ereignissen ähnlich sind (die gewichtet wurden, um gemeinsame Muster widerzuspiegeln), welche Ereignisse sich in Bezug auf die daran beteiligten Akteure ähnlich sind (gewichtet, um gemeinsame Muster widerzuspiegeln) und welche Akteure und Ereignisse liegen "nah" beieinander.

Manchmal ist es möglich, die zugrunde liegenden Faktoren oder Dimensionen zu interpretieren, um Erkenntnisse darüber zu gewinnen, warum Akteure und Ereignisse so zusammenpassen, wie sie es tun. Ganz allgemein können Cluster von Akteuren und Ereignissen, die ähnlich lokalisiert sind, sinnvolle „Typen“ oder „Domänen“ sozialen Handelns bilden.

Im Folgenden werden wir diese Instrumente ganz kurz auf die Daten über Großspender für kalifornische Initiativen im Zeitraum 2000-2004 anwenden. Unser Ziel ist es, die Logik der 2-Mode-Skalierung zu veranschaulichen. Die Diskussion hier ist sehr kurz über technische Behandlungen der (wichtigen) Unterschiede zwischen den Techniken.

Zwei-Modus-SVD-Analyse

Die Singulärwertzerlegung (SVD) ist eine Methode zum Identifizieren der Faktoren, die den (bewerteten) Daten mit zwei Modi zugrunde liegen. Die Methode zum Extrahieren von Faktoren (Singulärwerten) unterscheidet sich etwas von der herkömmlichen Faktoren- und Komponentenanalyse, daher ist es eine gute Idee, sowohl die SVD- als auch die 2-Mode-Faktorisierungsergebnisse zu untersuchen.

Um SVD zu veranschaulichen, haben wir eine Matrix von 23 Hauptspendern (die zusammen mehr als 1.000.000 US-Dollar für fünf oder mehr Kampagnen gespendet haben) von 44 kalifornischen Stimmzettelinitiativen eingegeben. Jeder Akteur wird mit -1 bewertet, wenn er gegen die Initiative beigetragen hat, +1, wenn er zugunsten der Initiative beigetragen hat, oder 0, wenn er keinen Beitrag geleistet hat. Die resultierende Matrix sind bewertete Daten, die mit SVD und Faktorenanalyse untersucht werden können; die geringe Zahl der Mitwirkenden bei vielen Initiativen und die sehr begrenzte Varianz der Skala sind jedoch nicht ideal.

Abbildung 17.6 zeigt die aus der rechteckigen Spender-nach-Initiative-Matrix extrahierten „Singulärwerte“ unter Verwendung von Werkzeuge>2-Modus-Skalierung>SVD.

Abbildung 17.6: Zwei-Modi-Skalierung kalifornischer Geber und Initiativen nach Single Value Decomposition: Singular values

Die "Singulärwerte" sind analog zu den "Eigenwerten" in den üblicheren Faktor- und Komponentenskalierungstechniken. Das Ergebnis zeigt hier, dass der gemeinsame „Raum“ der Varianz zwischen Gebern und Initiativen durch eine einfache Charakterisierung nicht gut erfasst wird. Wenn wir die Muster mit Ideen wie „links/rechts“ und „finanziell/moralisch“ als zugrunde liegende Dimensionen leicht verstehen könnten, gäbe es nur wenige singuläre Werte, die wesentliche Teile der gemeinsamen Varianz erklären könnten. Dieses Ergebnis sagt uns, dass die Art und Weise, wie Schauspieler und Ereignisse "zusammengehen", nicht sauber, einfach und leicht ist - in diesem Fall.

Mit diesem wichtigen Vorbehalt im Hinterkopf können wir untersuchen, wie die Ereignisse und Spender "skaliert" oder auf den zugrunde liegenden Dimensionen lokalisiert werden. Erstens die Wahlinitiativen. Abbildung 17.7 zeigt die Lage oder die Skalenwerte jedes der Stimmzettel in den ersten sechs zugrunde liegenden Dimensionen dieses hoch multidimensionalen Raums.

Abbildung 17.7: SVD kalifornischer Geber und Initiativen: Skalierung von Initiativen

Es zeigt sich, dass die erste Dimension dazu tendiert, Initiativen zur Unterstützung der öffentlichen Ausgaben für Bildung und Soziales auf den einen Pol und Initiativen zur Beschränkung der Gesetzgebungsbefugnis auf den anderen zu verorten - obwohl solche Interpretationen völlig subjektiv sind. Die zweite und höhere Dimensionen scheinen darauf hinzudeuten, dass Initiativen auch auf andere Weise als unterschiedlich angesehen werden können.

Gleichzeitig ermöglichen uns die Ergebnisse, die Spender entlang derselben zugrunde liegenden Dimensionen zu lokalisieren oder zu skalieren. Diese Belastungen sind in Abbildung 17.8 dargestellt.

Abbildung 17.8: SVD kalifornischer Spender und Initiativen: Skalierung der Spender

Am positiven Ende der ersten Dimension (die wir zuvor als Bevorzugung öffentlicher Ausgaben interpretiert haben) finden wir die Demokratische Partei, die öffentlichen Angestellten und die Lehrergewerkschaften; am Gegenpol stehen Republikaner und einige Wirtschafts- und Berufsgruppen.

Es ist oft nützlich, die Standorte der Akteure und Ereignisse in einem Streudiagramm zu visualisieren, das durch Skalenwerte auf den verschiedenen Dimensionen definiert wird. Die Karte in Abbildung 17.9 zeigt die Ergebnisse für die ersten beiden Dimensionen dieses Raums.

Abbildung 17.9: SVD kalifornischer Geber und Initiativen: Zweidimensionale Karte

Wir stellen fest, dass die Pole der ersten Dimension (links-rechts in der Abbildung) durch Unterschiede zwischen den Initiativen „verankert“ zu sein scheinen; die zweite Dimension (oben-unten) scheint eher durch Unterschiede zwischen den Gruppen definiert zu sein (mit Ausnahme von Proposition 56). Das Ergebnis verortet bestimmte Ereignisse und bestimmte Akteure nicht sauber und eindeutig entlang starker linearer Dimensionen. Es entstehen jedoch einige interessante Cluster, die Gruppen von Akteuren zusammen mit den Themen zeigen, die für ihre Beteiligungsmuster von zentraler Bedeutung sind. Die Demokraten und Gewerkschaften gruppieren sich (oben rechts) zusammen mit einer Reihe besonderer Vorschläge, in denen sie sehr aktiv waren (z. B. 46, 63). Unternehmens-, Bau- und Risikokapital-Cluster (lockerer) unten rechts, zusammen mit Kernthemen, die ihre Hauptagenda im Initiativprozess bildeten (z. B. Prop 62).

Zwei-Mode-Faktorenanalyse

Die Faktorenanalyse bietet eine alternative Methode zur SVD, um die gleichen Ziele zu erreichen: die Identifizierung der zugrunde liegenden Dimensionen des gemeinsamen Raums der Varianz von Akteur zu Ereignis und Lokalisieren oder Skalieren von Akteuren und Ereignissen in diesem Raum. Die bei der Faktorenanalyse verwendete Methode zur Ermittlung der Dimensionen unterscheidet sich von der SVD. Abbildung 17.10 zeigt die Eigenwerte (nach Hauptkomponenten) berechnet durch Tools>2-Modus-Skalierung>Faktoranalyse.

Abbildung 17.10: Eigenwerte des Two-Mode-Factoring von kalifornischen Gebern und Initiativen

Diese Lösung, obwohl sie sich von SVD unterscheidet, weist auch auf eine beträchtliche dimensionale Komplexität in der gemeinsamen Varianz von Akteuren und Ereignissen hin. Das heißt, einfache Charakterisierungen der zugrunde liegenden Dimensionen (z. B. "links/rechts") liefern keine sehr genauen Vorhersagen über die Standorte einzelner Akteure oder Ereignisse. Die Faktorenanalysemethode erzeugt eine etwas geringere Komplexität als SVD.

Unter Berücksichtigung der ziemlich schlechten Anpassung einer niedrigdimensionalen Lösung wollen wir die Skalierung der Akteure auf die ersten drei Faktoren untersuchen (Abbildung 17.11).

Abbildung 17.11: Ladungen von Spendern

Der erste Faktor erzeugt bei dieser Methode ein ähnliches Muster wie SVD. An einem Pol stehen Demokraten und Gewerkschaften, am anderen viele kapitalistische Gruppen. Es gibt jedoch einige bemerkenswerte Unterschiede (z. B. AFSCME). Abbildung 17.12 zeigt die Ladungen der Ereignisse.

Abbildung 17.12: Laden von Veranstaltungen

Auch hier weisen die Muster eine gewisse Ähnlichkeit mit den SVD-Ergebnissen auf, unterscheiden sich jedoch in den Besonderheiten erheblich. Um die Muster zu visualisieren, könnten die Belastungen von Akteuren und Ereignissen in den Dimensionen aus Ausgabedatendateien extrahiert und mithilfe eines Streudiagramms grafisch dargestellt werden.

Zwei-Modus-Korrespondenzanalyse

Für binäre Daten wird die Verwendung von Faktorenanalyse und SVD nicht empfohlen. Factoring-Methoden arbeiten mit Varianz-/Kovarianz- oder Korrelationsmatrizen zwischen Akteuren und Ereignissen. Wenn die Verbindungen von Akteuren zu Ereignissen auf binärer Ebene gemessen werden (was bei der Netzwerkanalyse sehr häufig der Fall ist), können Korrelationen die Kovarianz stark unterschätzen und die Erkennung von Mustern erschweren.

Als Alternative zur binären akteursweisen Skalierung bietet sich die Methode der Korrespondenzanalyse (Tools>2-Modus-Skalierung>Korrespondenz) kann verwendet werden. Die Korrespondenzanalyse (eher wie die Latent Class Analysis) arbeitet mit multivariaten binären Kreuztabellen, und ihre Verteilungsannahmen sind besser für binäre Daten geeignet.

Um die Anwendung der Korrespondenzanalyse zu veranschaulichen, haben wir die Daten zu politischen Spendern und Initiativen dichotomisiert, indem wir einen Wert von 1 zugewiesen haben, wenn ein Akteur entweder für oder gegen eine Initiative gespendet hat, und eine Null, wenn er nicht an der Kampagne teilgenommen hat einer bestimmten Initiative. Wenn wir wollten, dass unsere Analyse auf Parteilichkeit und nicht auf einfache Beteiligung achtet, hätten wir zwei Datensätze erstellen können – einen basierend auf Opposition oder nicht, einen auf Unterstützung oder nicht – und zwei separate Korrespondenzanalysen durchführen.

Abbildung 17.13 zeigt die Lokalisierung von Ereignissen (Initiativen) entlang dreier Dimensionen des durch die Korrespondenzanalysemethode identifizierten gemeinsamen Akteur-Ereignis-Raums.

Abbildung 17.13: Veranstaltungskoordinaten für die Mitbeteiligung von Spendern an kalifornischen Initiativkampagnen

Da diese Daten keine Parteilichkeit widerspiegeln, sondern nur die Teilnahme, würden wir nicht erwarten, dass die Ergebnisse mit den in den obigen Abschnitten diskutierten übereinstimmen. Und das tun sie nicht. Wir sehen jedoch, dass diese Methode auch verwendet werden kann, um die Initiativen entlang mehrerer zugrunde liegender Dimensionen zu verorten, die die Varianz sowohl bei den Akteuren als auch bei den Ereignissen erfassen. Abbildung 17.14 zeigt die Skalierung der Akteure.

Abbildung 17.14: Akteur koordiniert die Mitwirkung von Spendern an kalifornischen Initiativkampagnen

Die erste Dimension hier hat eine gewisse Ähnlichkeit mit den Polen Demokrat/Union versus Kapitalismus. Hier bedeutet dieser Unterschied jedoch, dass die beiden Gruppierungen eher an unterschiedlichen Gruppen von Initiativen teilnehmen, als sich in denselben Kampagnen gegenüberzustehen.

Visualisierung ist oft der beste Ansatz, um sinnvolle Muster zu finden (in Abwesenheit einer starken Theorie). Abbildung 17.15 zeigt die Darstellung der Akteure und Ereignisse in den ersten beiden Dimensionen des gemeinsamen Korrespondenzanalyseraums.

Abbildung 17.15: Korrespondenzanalyse zweidimensionale Karte

Der untere rechte Quadrant enthält hier ein sinnvolles Cluster von Akteuren und Ereignissen und veranschaulicht, wie die Ergebnisse der Korrespondenzanalyse interpretiert werden können. Unten rechts haben wir einige Vorschläge zum indischen Casino-Glücksspiel (68 und 70) und zwei Vorschläge zu ökologischen/Naturschutzfragen (40 und 50). Zwei der großen indianischen Nationen (die Cahualla- und Morongo-Banden der Missionsindianer) sind zusammen kartiert. Das Ergebnis zeigt, dass es eine Gruppe von Themen gibt, die mit einer Gruppe von Gebern „zusammen“ auftreten – Akteure, die Ereignisse definieren, und Ereignisse, die Akteure definieren.


Eine quantitative und qualitative Analyse des COVID-19-Pandemiemodells

Globale Bemühungen auf der ganzen Welt konzentrieren sich darauf, mehrere Gesundheitsstrategien zur Minimierung der Auswirkungen des neuen Coronavirus (COVID-19) auf die Gemeinschaft zu diskutieren. Es ist klar, dass dieses Virus zu einer Bedrohung für die öffentliche Gesundheit wird und sich leicht unter Einzelpersonen ausbreitet. Mathematische Modelle mit Computersimulationen sind wirksame Werkzeuge, die den globalen Bemühungen helfen, die wichtigsten Übertragungsparameter und weitere Verbesserungen bei der Kontrolle dieser Krankheit abzuschätzen. Dies ist eine Infektionskrankheit und kann als ein System nichtlinearer Differentialgleichungen mit Reaktionsgeschwindigkeiten modelliert werden.

Diese Arbeit überprüft und entwickelt einige vorgeschlagene Modelle für COVID-19, die wichtige Fragen zur globalen Gesundheitsversorgung beantworten und wichtige Hinweise geben können. Dann schlagen wir ein aktualisiertes Modell vor, das ein System von Differentialgleichungen mit Übertragungsparametern enthält. Einige wichtige Computersimulationen und Sensitivitätsanalysen werden untersucht. Außerdem werden die lokalen Sensitivitäten für jeden Modellzustand bezüglich der Modellparameter unter Verwendung von drei verschiedenen Techniken berechnet: Nicht-Normalisierungen, Halbnormierungen und Vollnormierungen.

Die auf den Computersimulationen basierenden Ergebnisse zeigen, dass die Modelldynamik für verschiedene Schlüsselparameter des Modells signifikant verändert wird. Interessanterweise stellen wir fest, dass Übergangsraten zwischen asymptomatischen Infizierten mit sowohl gemeldeten als auch nicht gemeldeten symptomatischen Infizierten sehr sensible Parameter in Bezug auf Modellvariablen bei der Verbreitung dieser Krankheit sind. Dies hilft den internationalen Bemühungen, die Zahl der mit der Krankheit infizierten Personen zu reduzieren und die Ausbreitung des neuen Coronavirus in der Gemeinschaft zu verhindern. Eine weitere Neuheit dieser Arbeit ist die Identifizierung der kritischen Modellparameter, die die Anwendung durch Biologen mit geringeren Kenntnissen der mathematischen Modellierung erleichtert und auch die Verbesserung des Modells für die zukünftige Entwicklung theoretisch und praktisch erleichtert.


Analyse der COVID-19-Übertragung in der Provinz Shanxi mit diskreten importierten Fällen

Seit Dezember 2019 fegte ein Ausbruch einer neuartigen Coronavirus-Pneumonie (WHO namens COVID-19) über China hinweg. In der Provinz Shanxi erreichten die kumulierten bestätigten Fälle schließlich 133, seit der erste bestätigte Fall am 22. Januar 2020 auftrat, und die meisten davon importierte Fälle aus der Provinz Hubei. Die Gründe für diesen anhaltenden Anstieg in der Provinz Shanxi, sowohl importierte als auch autochthone infizierte Fälle, sind derzeit unklar und erfordern eine dringende Untersuchung. In diesem Papier haben wir ein SEIQR-Differenzgleichungsmodell von COVID-19 entwickelt, das die Übertragung mit zeitdiskreten importierten Fällen berücksichtigt, um eine Bewertung und Risikoanalyse durchzuführen. Unsere Ergebnisse deuten darauf hin, dass die Infektionsfälle weniger sind, wenn das Sperrdatum in Wuhan früher liegt. Darüber hinaus zeigen wir die Auswirkungen des Datums der Sperrung der Stadt auf die endgültige Fallskala: Wenn das Datum um zwei Tage vorverlegt wird, können die Fälle um die Hälfte zurückgehen (67, 95 %-KI: 66-68), wenn das Datum um verschoben wird zwei Tage können die Fälle etwa 196 erreichen (95%-KI: 193-199). Unser Untersuchungsmodell könnte möglicherweise hilfreich sein, um die Übertragung von COVID-19 in anderen Provinzen Chinas außer Hubei zu untersuchen. Insbesondere kann die Methode auch in Ländern angewendet werden, in denen der erste bestätigte Fall importiert wird.

Schlüsselwörter: COVID-19 SEIQR Modell City Lock-Down Strategie Differenzgleichung importierte Fälle.


Was ist quantitatives Denken und Repräsentation?

Das Argumentation dass der in diesem Szenario verwendete Bürgermeister ein Beispiel vom Benutzen quantitative Argumentation um ein reales Problem zu lösen. Quantitative Argumentation ist der Akt, mathematische Fakten und Konzepte zu verstehen und auf reale Szenarien anzuwenden.

Was ist außerdem qualitatives und quantitatives Denken? Die Bedingungen qualitativ und quantitativ gelten für zwei Arten von Perspektiven Argumentation, wird am häufigsten bei der Durchführung von Recherchen verwendet. Qualitativ konzentriert sich auf die Qualität von etwas, während quantitativ ist auf die Menge fokussiert.

Warum ist daher quantitatives Denken wichtig?

Quantitative Argumentation Skill ( QR ) ist die Fähigkeit zu verstehen und zu verwenden quantitativ Informationen, um zu einem soliden Ergebnis zu kommen. QR gilt als eines der am meisten wichtig intellektuelle Fähigkeiten wie Kommunikationsfähigkeit, Informationskompetenz und kritisches Denken, die alle Hochschulabsolventen erwerben sollten.

Was ist die Definition von quantitativem Denken?

Einzeln Definition, quantitative Argumentation (QR) ist die Anwendung grundlegender mathematischer Fähigkeiten wie Algebra auf die Analyse und Interpretation der realen Welt quantitativ Informationen im Kontext einer Disziplin oder eines interdisziplinären Problems, um Schlussfolgerungen zu ziehen, die für die Studierenden im Alltag relevant sind.


Laden Sie diesen Artikel für Ihren persönlichen wissenschaftlichen, Forschungs- und Bildungsgebrauch herunter und drucken Sie ihn aus.

Kaufen Sie eine einzelne Ausgabe von Wissenschaft für nur 15 USD.

Wissenschaft

Band 331, Ausgabe 6014
14. Januar 2011

Artikel Tools

Bitte melden Sie sich an, um eine Benachrichtigung für diesen Artikel hinzuzufügen.

Von Jean-Baptiste Michel, Yuan Kui Shen, Aviva Presser Aiden, Adrian Veres, Matthew K. Gray, The Google Books Team, Joseph P. Pickett, Dale Hoiberg, Dan Clancy, Peter Norvig, Jon Orwant, Steven Pinker, Martin A. Nowak, Erez Lieberman Aiden

Wissenschaft 14. Januar 2011: 176-182

Sprachliche und kulturelle Veränderungen werden durch die Analyse von Wörtern in Büchern sichtbar.


Verschiedene Arten von quantitativen Daten

  1. Messung physischer Objekte: Diese Art von quantitativen Daten befasst sich mit der Messung jeder Art von physischen Objekten. Dies kann die Messung jeder Kabine umfassen, die jedem Mitarbeiter in einem Unternehmen zugewiesen ist.
  2. Datenprojektion: Eine zukünftige Datenprojektion kann durch die Implementierung vieler mathematischer Algorithmen und Analysetools erreicht werden. Ein Marktforscher muss beispielsweise die Umsatzsteigerung nach der Einführung einer neuen Dienstleistung oder eines neuen Produktes durch Analyse vorhersagen.
  3. Zähler: Der Zähler bezieht sich auf die Aktien. Zähler bedeutet beispielsweise die Gesamtzahl der Benutzer, die eine bestimmte Anwendung aus dem Google- oder Apple-Store heruntergeladen haben.
  4. Sensorische Berechnung: Sensorische Berechnung bezieht sich auf den Prozess des natürlichen Erfassens der Parameter, um eine kontinuierliche Informationsquelle zu erzeugen. Das beste Beispiel für die sensorische Berechnung ist die Umwandlung elektromagnetischer Informationen in einen konstanten numerischen Datenstring.
  5. Quantifizierung der Entitäten, die qualitativer Natur ist: Bei dieser Art von quantitativen Daten werden Zahlen in den qualitativen Informationen identifiziert. Zum Beispiel, einen Kunden in einer Online-Umfrage nach der Empfehlung einer Dienstleistung oder eines Produktes auf einer Skala von 0 bis 10 zu fragen.

Warum quantitative Daten wichtig sind

Quantitative Daten sprechen im Gegensatz zu qualitativen Daten über genaue Zahlen und Zahlen. Daher schlägt der Forscher vor, die Einstellungen, Attribute, das Verhalten und andere Variablen mit einem bestimmten Motiv zu quantifizieren. Der Hauptzweck könnte darin bestehen, die Hypothese eines bestimmten Produkts oder einer bestimmten Dienstleistung zu widerlegen oder zu unterstützen, indem die durch Befragungen oder Erhebungen der Stichprobe gesammelten Daten dargestellt werden. Sie haben die Möglichkeit, sich für die traditionelle Erhebungsmethode zu entscheiden oder die neuesten Technologien einzusetzen, um die Informationen nach entsprechender Recherche zu sammeln. Der Forscher benötigt auch statistische, mathematische und rechnerische Werkzeuge, um die Ergebnisse aus den quantitativen Daten zu vervollständigen.

Eigenschaften der quantitativen Daten

Einige der wichtigsten Merkmale der quantitativen Daten sind wie folgt:

  1. Numerische Darstellung: Quantitative Daten nehmen die gesamten numerischen Werte zusammen mit den Eigenschaften auf.
  2. Arithmetische Operation: Der Forscher kann grundlegende arithmetische Operationen wie Subtraktion oder Addition zu den quantitativen Daten durchführen.
  3. Analyse: Sie kann anhand der Forschungsziele mit inferentiellen und deskriptiven statistischen Verfahren untersucht werden.
  4. Typen: Quantitative Daten sind hauptsächlich von zwei Arten, die kontinuierlich und diskret sind. Kontinuierliche Daten werden weiter in Verhältnis- und Intervalldaten klassifiziert.
  5. Auftrag: Es gibt eine Ordnungsskala, um die Daten zu quantifizieren. Zum Beispiel können Daten geordnet mit 1,2,3 bewertet werden.
  6. Standardisierte Skala: Zu den quantitativen Daten gehört eine Messskala, die eine Standardskala enthält, aber keine Reihenfolge hat.
  7. Visualisierung der Daten: Die Visualisierung der Daten kann mithilfe einiger Techniken erreicht werden, die als Punktdiagramm, Histogramme, Streudiagramm und gestapeltes Punktdiagramm bezeichnet werden.

Vorteile von quantitativen Daten

  • Weniger Voreingenommenheit: Es gibt viele Fälle in der Forschung, in denen persönliche Vorurteile im Spiel sein können, die zu einem nicht schlüssigen Ergebnis führen. Aufgrund des numerischen Wertes der Daten wird der persönliche Bias in höherem Maße verringert.
  • Vertiefte Recherche durchführen: Der gesamte Prozess der Recherche wird detailliert erklärt, da alle Daten statistisch ausgewertet werden.Exakte Ergebnisse: Da die erhaltenen Ergebnisse objektiv sind, sind die Daten absolut genau.

Nachteile der quantitativen Daten

Abgesehen von den oben genannten Vorteilen haben quantitative Daten auch eine Reihe von Nachteilen:

Abhängig von der Art der Fragen: Die Verzerrungen in den Fragen hängen direkt mit der Art der Fragen zusammen, die bei der Erhebungsmethode der quantitativen Daten gestellt werden. Das Wissen um die Fragestellung des Forschers und das Forschungsziel sind bei der Analyse der Daten von enormer Bedeutung.

Klassifizierte Information: Vorher waren quantitative Daten nicht beschreibend. Infolgedessen wird es für die Teilnehmer äußerst schwierig, ausschließlich auf der Grundlage der gesammelten Informationen zu einem Schluss zu kommen.

Bei quantitativen Daten geht es also eher um divergentes Denken als um konvergentes Denken. Es beschäftigt sich hauptsächlich mit Logik, Zahlenwerten und Daten. Quantitative Daten sind umfassender Natur und der einzige Typ, der den Analysewert in Form von Grafiken und Diagrammen darstellen kann. Die Forscher können aufgrund der Integrität und Genauigkeit der Daten auf präzise Ergebnisse schließen.


Schritte in der quantitativen Analyse

Datenmanagement - Dazu gehört, sich mit geeigneter Software vertraut zu machen, systematisch Ihre Daten einzuloggen und zu überprüfen: die Daten in ein Programm einzugeben und schließlich Ihre Daten zu „bereinigen“.

Variablentypen verstehen – Unterschiedliche Datentypen erfordern eine diskrete Behandlung, daher ist es wichtig, Variablen sowohl nach Ursache und Wirkung (abhängig oder unabhängig) als auch nach ihren Messskalen (nominal, ordinal, Intervall und Verhältnis) unterscheiden zu können.

Führen Sie deskriptive Statistiken aus – Diese werden verwendet, um die grundlegenden Merkmale eines Datensatzes durch Messungen der zentralen Tendenz (Mittelwert, Modus und Median), Streuung (Bereich, Quartile, Varianz und Standardabweichung) und Verteilung (Schiefe und Kurtosis) zusammenzufassen.

Führen Sie geeignete Inferenzstatistiken durch – Dies ermöglicht es den Forschern, ihre Fähigkeit zu beurteilen, Schlussfolgerungen zu ziehen, die über die unmittelbaren Daten hinausgehen. Wenn beispielsweise eine Stichprobe die Grundgesamtheit repräsentiert, wenn es Unterschiede zwischen zwei oder mehr Gruppen gibt, wenn sich im Laufe der Zeit Änderungen ergeben oder wenn eine Beziehung zwischen zwei oder mehr Variablen besteht.

Stellen Sie sicher, dass Sie den richtigen statistischen Test auswählen – Dies hängt davon ab, dass Sie die Art Ihrer Variablen, ihren Messumfang, ihre Verteilungsform und die Arten von Fragen kennen, die Sie stellen möchten.

Suchen Sie nach statistischer Signifikanz – Dies wird im Allgemeinen durch einen „p-Wert“ erfasst, der die Wahrscheinlichkeit bewertet, dass Ihre Ergebnisse mehr als zufällig sind. Je niedriger der p-Wert, desto sicherer können Forscher sein, dass die Ergebnisse echt sind.


Quantitative Analyse mit Strukturgleichungsmodellierung

USGS-Wissenschaftler sind seit mehreren Jahren an der Entwicklung und Anwendung von Structural Equation Modeling (SEM) beteiligt. Diese Methodik stellt einen Ansatz zur statistischen Modellierung dar, der sich auf die Untersuchung komplexer Ursache-Wirkungs-Hypothesen über die in Systemen wirkenden Mechanismen konzentriert. SEM wird zunehmend in ökologischen und umweltbezogenen Studien verwendet, und diese Site versucht, Bildungsmaterialien zu diesem Unternehmen bereitzustellen. Diese Site bietet Tutorials, Übungen und Beispiele, die Forschern helfen sollen, SEM zu erlernen und anzuwenden. Bitte klicken Sie auf den Reiter „Wissenschaft“, um mehr zu erfahren.

Eine unserer Anwendungen von SEM bestand darin, aufzudecken, wie menschliche Aktivitäten mit der ökologischen Integrität in Nationalparks zusammenhängen.​​​​​​​

So verwenden Sie diese Site

Diese Site bietet Tutorials, Beispiele und Übungen für diejenigen, die grundlegende oder spezielle Methoden zur Modellierung von Strukturgleichungen erlernen möchten. Eine Beschreibung, was wann hinzugefügt wurde, finden Sie im Dokument Was gibt's Neues.

Kommentare zu bestehenden Tutorials und Vorschläge für zusätzliche Tutorials können an [email protected] gesendet werden. Bitte beachten Sie, dass E-Mails an diese Adresse zwar gelesen werden, wir jedoch aus Zeitgründen keine individuellen Antworten geben können. Dafür entschuldigen wir uns, hoffen aber, dass die bereitgestellten Materialien hilfreich sind.

Um Update-Benachrichtigungen zu erhalten

Wir werden eine Mailingliste führen, um Updates an diejenigen zu senden, die daran interessiert sind, die Entwicklung neuer Materialien zu verfolgen. Teilen Sie uns einfach Ihr Interesse mit, indem Sie eine Nachricht an [email protected] senden.

Website-Inhalte pdf

Auftakt - Was ist Strukturgleichungsmodellierung (REM)? pdf-video

Beispiel SEM-basierte Studie (SEM.0a) pdf

I. Einführung und Hintergrund

SEM-Grundlagen
Zusammenfassung Punkte (SEM.1.1) pdf
Anatomie von SE-Modellen (SEM.1.2) pdf
Modellspezifikationen (SEM.1.3) pdf
Schätzung (SEM.1.4) pdf
Pfadregeln (SEM.1.5) pdf
Koeffizienten interpretieren (SEM.1.6) pdf
Interpretieren von Effekten kategorialer Prädiktoren (SEM.1.7) pdf-Codedaten
Koeffizienten mit protokollierten Variablen (SEM.1.8) pdf

SEM in R . machen
Einführung in Lavaan (SEM.2.1) pdf-Codedaten
Lavaan Syntax-Referenz (SEM.2.1a) pdf
Local Estimation of Equations (SEM.2.2) pdf-Codedaten

Modellbewertung (SEM.3) pdf-Codedaten
Modellbewertungsübung pdf-Codedaten

II. Grundelemente der Modellierung Model

Überblick über den Modellierungsprozess (SEM.4) pdf
Der Test der Mediation (SEM.5) pdf-Codedaten
Test der Mediationsübung pdf-Codedaten
SEM versus Multiple Regression (SEM.6) pdf-Codedaten
Causal Modeling Principles Revisited (SEM.7) pdf
SEM versus ANOVA und ANCOVA (SEM.8) pdf

III. Modellierung mit latenten und zusammengesetzten Variablen

Modellierung mit latenten Variablen (SEM.9.1) pdf-Codedaten
Konfirmatorische Faktorenanalyse (SEM.9.2) pdf-Codedaten
Bestätigungsfaktorenanalyse Übung PDF-Code-Daten Exercise
Composites and Formative Indicators (SEM.10.1) pdf-Code
Verbundwerkstoffe und endogene Nichtlinearitäten (SEM.10.2) pdf
Composites mit mehreren Effekten (SEM.10.3) pdf
Composites with Multiple Effects Übungs-PDF-Codedaten
Verbundwerkstoffe - Vergleich der Spezifikationen (SEM.10.4) pdf


Quantitative Daten: Erhebungsmethoden

Da quantitative Daten in Form von Zahlen vorliegen, kann eine mathematische und statistische Analyse dieser Zahlen zu schlüssigen Ergebnissen führen.

Es gibt zwei Hauptmethoden zur quantitativen Datenerhebung:

Umfragen: Umfragen wurden traditionell papierbasiert durchgeführt und haben sich nach und nach zu Online-Medien entwickelt. Geschlossene Fragen bilden einen großen Teil dieser Umfragen, da sie bei der Erhebung quantitativer Daten effektiver sind. Die Umfrage enthält Antwortoptionen, die ihrer Meinung nach für eine bestimmte Frage am besten geeignet sind. Umfragen sind ein wesentlicher Bestandteil beim Sammeln von Feedback von einem Publikum, das größer ist als die herkömmliche Größe. Ein kritischer Faktor bei Umfragen ist, dass die gesammelten Antworten so sein sollten, dass sie ohne signifikante Diskrepanzen auf die gesamte Bevölkerung verallgemeinert werden können. Auf der Grundlage des Zeitaufwands für das Ausfüllen von Umfragen werden sie in die folgenden Kategorien eingeteilt: –

  • Langzeitstudien: Eine Art der Beobachtungsforschung, bei der der Marktforscher Befragungen von einem bestimmten Zeitraum zu einem anderen, also über einen längeren Zeitraum, durchführt, wird als Längsschnittbefragung bezeichnet. Diese Umfrage wird häufig für Trendanalysen oder Studien durchgeführt, bei denen das Hauptziel darin besteht, ein Datenmuster zu sammeln und zu analysieren.
  • Querschnittsstudien: Eine Art der Beobachtungsforschung, bei der die Marktforschung Befragungen zu einem bestimmten Zeitraum über die Zielstichprobe durchführt, wird als Querschnittsbefragung bezeichnet. Dieser Umfragetyp implementiert einen Fragebogen, um ein bestimmtes Thema aus der Stichprobe zu einem bestimmten Zeitraum zu verstehen.

Um eine Umfrage zur Erhebung quantitativer Daten durchzuführen, sind die folgenden Grundsätze zu befolgen.

  • Grundlegende Messebenen – Nominal-, Ordinal-, Intervall- und Verhältnisskalen: Es gibt vier Messskalen, die für die Erstellung einer Multiple-Choice-Frage in einer Umfrage bei der Erhebung quantitativer Daten von grundlegender Bedeutung sind. Dabei handelt es sich um Nominal-, Ordinal-, Intervall- und Verhältnismaßstäbe, ohne deren Grundlagen keine Multiple-Choice-Fragen erstellt werden können.
  • Verwendung verschiedener Fragetypen: Um quantitative Daten zu erheben, müssen in einer Umfrage geschlossene Fragen verwendet werden. Sie können eine Mischung aus mehreren Fragetypen sein, einschließlich Multiple-Choice-Fragen wie semantische Differentialskalenfragen, Ratingskalenfragen usw., die dabei helfen können, Daten zu sammeln, die analysiert und ausgewertet werden können.
  • Umfrageverteilung und Umfragedatensammlung: Oben haben wir den Prozess der Erstellung einer Umfrage zusammen mit dem Umfragedesign gesehen, um quantitative Daten zu sammeln. Die Verteilung von Umfragen zum Sammeln von Daten ist der andere wichtige Aspekt des Umfrageprozesses. Es gibt verschiedene Möglichkeiten der Umfrageverteilung. Einige der am häufigsten verwendeten Methoden sind:
    • Email: Das Versenden einer Umfrage per E-Mail ist die am häufigsten verwendete und effektivste Methode zur Verteilung von Umfragen. Sie können die E-Mail-Verwaltungsfunktion von QuestionPro verwenden, um Umfrageantworten zu versenden und zu sammeln.
    • Befragte kaufen: Eine weitere effektive Möglichkeit, eine Umfrage zu verteilen und quantitative Daten zu sammeln, ist die Verwendung einer Stichprobe. Da die Befragten sachkundig sind und auch offen für die Teilnahme an Forschungsstudien sind, fallen die Antworten deutlich höher aus.
    • Umfrage in eine Website einbetten:Die Einbettung einer Umfrage in eine Website erhöht die Anzahl der Antworten, da sich der Befragte beim Aufruf der Umfrage bereits in unmittelbarer Nähe zur Marke befindet.
    • Soziale Verteilung: Die Verwendung sozialer Medien zur Verbreitung der Umfrage hilft dabei, eine höhere Anzahl von Antworten von Personen zu sammeln, die die Marke kennen.
    • QR-Code: QuestionPro QR-Codes speichern die URL für die Umfrage. Sie können diesen Code in Zeitschriften, auf Schildern, Visitenkarten oder auf fast jedem Objekt/Medium ausdrucken/veröffentlichen.
    • SMS-Umfrage: Eine schnelle und zeitsparende Möglichkeit, eine Umfrage durchzuführen, um eine hohe Anzahl von Antworten zu sammeln, ist die SMS-Umfrage.
    • QuestionPro-App: Die QuestionPro App ermöglicht es, Umfragen schnell zu verteilen und die Antworten können sowohl online als auch offline gesammelt werden.
    • API-Integration: Sie können die API-Integration der QuestionPro-Plattform für potenzielle Teilnehmer nutzen, um an Ihrer Umfrage teilzunehmen.

    Einzelgespräche: Diese Methode der quantitativen Datenerhebung wurde traditionell ebenfalls von Angesicht zu Angesicht durchgeführt, hat sich jedoch auf Telefon- und Online-Plattformen verlagert. Interviews bieten einem Vermarkter die Möglichkeit, umfangreiche Daten von den Teilnehmern zu sammeln. Quantitative Interviews sind immens strukturiert und spielen eine Schlüsselrolle bei der Informationsbeschaffung. Es gibt drei Hauptabschnitte dieser Online-Interviews:

    • Persönliche Vorstellungsgespräche: Ein Interviewer kann zusätzlich zu den bereits gestellten Umfragefragen eine Liste mit wichtigen Interviewfragen erstellen. Auf diese Weise geben die Interviewpartner ausführliche Informationen zum behandelten Thema. An interviewer can manage to bond with the interviewee on a personal level which will help him/her to collect more details about the topic due to which the responses also improve. Interviewers can also ask for an explanation from the interviewees about unclear answers.
    • Online/Telephonic Interviews: Telephone-based interviews are no more a novelty but these quantitative interviews have also moved to online mediums such as Skype or Zoom. Irrespective of the distance between the interviewer and the interviewee and their corresponding time zones, communication becomes one-click away with online interviews. In case of telephone interviews, the interview is merely a phone call away.
    • Computer Assisted Personal Interview: This is a one-on-one interview technique where the interviewer enters all the collected data directly into a laptop or any other similar device. The processing time is reduced and also the interviewers don’t have to carry physical questionnaires and merely enter the answers in the laptop.

    All of the above quantitative data collection methods can be achieved by using surveys, questionnaires and polls.

    Quantitative Data: Analysis Methods

    Data collection forms a major part of the research process. This data however has to be analyzed to make sense of. There are multiple methods of analyzing quantitative data collected in surveys . Sie sind:

    • Cross-tabulation:Cross-tabulation is the most widely used quantitative data analysis methods. It is a preferred method since it uses a basic tabular form to draw inferences between different data-sets in the research study. It contains data that is mutually exclusive or have some connection with each other.
    • Trend analysis:Trend analysis is a statistical analysis method that provides the ability to look at quantitative data that has been collected over a long period of time. This data analysis method helps collect feedback about data changes over time and if aims to understand the change in variables considering one variable remains unchanged.
    • MaxDiff analysis: The MaxDiff analysis is a quantitative data analysis method that is used to gauge customer preferences for a purchase and what parameters rank higher than the others in this process. In a simplistic form, this method is also called the “best-worst” method. This method is very similar to conjoint analysis but is much easier to implement and can be interchangeably used.
    • Conjoint analysis: Like in the above method, conjoint analysis is a similar quantitative data analysis method that analyzes parameters behind a purchasing decision. This method possesses the ability to collect and analyze advanced metrics which provide an in-depth insight into purchasing decisions as well as the parameters that rank the most important.
    • TURF analysis:TURF analysis or Total Unduplicated Reach and Frequency Analysis, is a quantitative data analysis methodology that assesses the total market reach of a product or service or a mix of both. This method is used by organizations to understand the frequency and the avenues at which their messaging reaches customers and prospective customers which helps them tweak their go-to-market strategies.
    • Gap analysis:Gap analysis uses a side-by-side matrix to depict quantitative data that helps measure the difference between expected performance and actual performance. This data analysis helps measure gaps in performance and the things that are required to be done to bridge this gap.
    • SWOT analysis:SWOT analysis , is a quantitative data analysis methods that assigns numerical values to indicate strength, weaknesses, opportunities and threats of an organization or product or service which in turn provides a holistic picture about competition. This method helps to create effective business strategies.
    • Text analysis:Text analysis is an advanced statistical method where intelligent tools make sense of and quantify or fashion qualitative and open-ended data into easily understandable data. This method is used when the raw survey data is unstructured but has to be brought into a structure that makes sense.

    Learn More: MaxDiff Analysis vs Conjoint Analysis

    Steps to conduct Quantitative Data Analysis

    For Quantitative Data, raw information has to presented in a meaningful manner using data analysis methods. Quantitative data should be analyzed in order to find evidential data that would help in the research process.

    • Relate measurement scales with variables: Associate measurement scales such as Nominal, Ordinal, Interval and Ratio with the variables. This step is important to arrange the data in proper order. Data can be entered into an excel sheet to organize it in a specific format.
    • Connect descriptive statistics with data: Link descriptive statistics to encapsulate available data. It can be difficult to establish a pattern in the raw data. Some widely used descriptive statistics are:
        1. Mean- An average of values for a specific variable
        2. Median- A midpoint of the value scale for a variable
        3. Mode- For a variable, the most common value
        4. Frequency- Number of times a particular value is observed in the scale
        5. Minimum and Maximum Values- Lowest and highest values for a scale
        6. Percentages- Format to express scores and set of values for variables
    • Decide a measurement scale: It is important to decide the measurement scale to conclude descriptive statistics for the variable. For instance, a nominal variable score will never have a mean or median and so the descriptive statistics will correspondingly vary. Descriptive statistics suffice in situations where the results are not to be generalized to the population.
    • Select appropriate tables to represent data and analyze collected data: After deciding on a suitable measurement scale, researchers can use a tabular format to represent data. This data can be analyzed using various techniques such as Cross-tabulation or TURF .

    Learn More: Data analysis in research


    Label-Free Molecular Vibrational Imaging for Cancer Diagnosis

    Liang Gao , Stephen T.C. Wong , in Cancer Theranostics , 2014

    Data Analysis

    Quantitative analysis was performed to separate cancer from noncancer samples, supporting the potential of the system in determining surgical margins. To this end, a semiautomatic segmentation algorithm was developed to precisely delineate boundaries of cell nucleus ( Figure 11.3(a) ). The algorithm consists of one manual step and four automatic steps to obtain an accurate nuclear boundary, as shown in Figure 11.3(b) through (f) . Following nuclear segmentation, 5 cellular features were calculated, including nuclear size, maximum, minimum, and average neighbor distance of a cell in the Delaunay triangulation graph [27] and variation of nuclear orientation between adjacent cells as defined in Gao et al. [25] . Because of the diversity among different cells within each image, the measurement of each feature resulted in producing a unique distribution. To characterize these distributions, we then made use of the mean value and standard deviation of each distribution, leading to a total of 10 quantitative features (a 10-element vector) to represent each sample. A principal components analysis (PCA) [28] was further performed to reduce the data dimensionality and reach immediate visualization of the data distribution.

    Figure 11.3 . Overview of the nuclear segmentation process and the resulting Delaunay triangulation graph. (a) through (f) are five illustrative steps for nuclear segmentation. (g) Delaunay triangulation on the segmented image.


    Schau das Video: The Solubility Product Constant (September 2021).