Artikel

3.2: Minimierungsanwendungen


Lernziele

In diesem Abschnitt lernen Sie:

  1. Formulieren von Minimierungsproblemen bei der linearen Programmierung
  2. Durchführbarkeitsregionen für Maximierungsprobleme bei der linearen Programmierung
  3. Bestimmen Sie optimale Lösungen für Maximierungsprobleme der linearen Programmierung.

Minimierungsprobleme der linearen Programmierung werden in ähnlicher Weise wie die Maximierungsprobleme gelöst.

Für die lineares Programm zur Standardminimierung, haben die Nebenbedingungen die Form (ax + by ≥ c), im Gegensatz zur Form (ax + by ≤ c) für das Standardmaximierungsproblem. Als Ergebnis erstreckt sich die zulässige Lösung unbegrenzt nach rechts oben des ersten Quadranten und ist unbeschränkt. Dies ist jedoch kein Problem, da zum Minimieren der Zielfunktion die mit der Zielfunktion verbundene Linie in Richtung des Ursprungs verschoben wird und der kritische Punkt, der die Funktion minimiert, dem Ursprung am nächsten liegt.

Allerdings sollte man sich bewusst sein, dass bei einem unbegrenzten Machbarkeitsgebiet die Möglichkeit einer optimalen Lösung nicht besteht.

Beispiel (PageIndex{1})

An einer Universität möchte Professor Symons zwei Leute, John und Mary, einstellen, um die Arbeiten für seinen Unterricht zu benoten. John ist Doktorand und kann 20 Arbeiten pro Stunde benoten; John verdient 15 Dollar pro Stunde für die Benotung von Arbeiten. Mary ist Postdoktorandin und kann 30 Arbeiten pro Stunde benoten; Mary verdient 25 Dollar pro Stunde für die Benotung von Arbeiten. Jeder muss mindestens eine Stunde pro Woche beschäftigt sein, um seine Beschäftigung zu rechtfertigen.
Wenn Prof. Symons jede Woche mindestens 110 Arbeiten zu benoten hat, wie viele Stunden pro Woche sollte er jede Person beschäftigen, um die Kosten zu minimieren?

Lösung

Wir wählen die Variablen wie folgt:

Sei (x) = Die Anzahl der Stunden pro Woche, die John beschäftigt ist.

und (y) = Die Anzahl der Stunden pro Woche, die Mary angestellt ist.

Die Zielfunktion ist

[C = 15x + 25y onumber]

Die Tatsache, dass jeder mindestens eine Stunde pro Woche arbeiten muss, führt zu den folgenden zwei Einschränkungen:

[egin{array}{l}
x geq 1
y geq 1
end{array} onumber ]

Da John 20 Arbeiten pro Stunde und Mary 30 Arbeiten pro Stunde benoten kann und es mindestens 110 Arbeiten pro Woche zu benoten gibt, bekommen wir

[20x + 30y ≥ 110 onumber]

Die Tatsache, dass (x) und (y) nichtnegativ sind, erhalten wir

[x 0 ext{, und } y ≥ 0. onumber]

Das Problem wurde wie folgt formuliert.

[egin{array}{ll}
extbf { Minimieren} & mathrm{C}=15 mathrm{x}+25 mathrm{y}
extbf { Betrifft: } & mathrm{x} geq 1
& mathrm{y} geq 1
& 20 mathrm{x}+30 mathrm{y} geq 110
& mathrm{x} geq 0 ; mathrm{y} geq 0
end{array} onumber]

Um das Problem zu lösen, zeichnen wir die Nebenbedingungen wie folgt:

Auch hier haben wir den Machbarkeitsbereich schattiert, in dem alle Randbedingungen erfüllt sind.

Wenn wir den Testpunkt (0,0) verwendet haben, der nicht auf einer der Randbedingungen liegt, beobachten wir, dass (0, 0) nicht eine der Bedingungen (x 1), (y ≥ 1), (20x + 30y ≥ 110) erfüllen. Somit liegt die gesamte Schattierung für den Machbarkeitsbereich auf der gegenüberliegenden Seite der Zwangslinien vom Punkt (0,0).

Alternativ könnten wir den Testpunkt (4,6) verwenden, der ebenfalls auf keiner der Zwangslinien liegt. Das würden wir finden (4,6) tut alle Ungleichheitsbeschränkungen erfüllen. Folglich liegt die gesamte Schattierung für den Machbarkeitsbereich auf derselben Seite der Zwangslinien wie der Punkt (4,6).

Da der Extremwert der Zielfunktion immer an den Ecken des Machbarkeitsbereichs liegt, identifizieren wir die beiden kritischen Punkte (1, 3) und (4, 1). Um die Kosten zu minimieren, ersetzen wir diese Punkte in der Zielfunktion, um zu sehen, welcher Punkt uns jede Woche die minimalen Kosten liefert. Die Ergebnisse sind unten aufgeführt.

Kritische PunkteEinkommen
(1, 3)15(1) + 25(3) = $90
(4, 1)15(4) + 25(1) = $85

Der Punkt (4, 1) ergibt die geringsten Kosten, und diese Kosten betragen $85. Daher schlussfolgern wir, dass Professor Symons, um die Benotungskosten zu minimieren, John 4 Stunden pro Woche und Mary 1 Stunde pro Woche zu einem Preis von 85 US-Dollar pro Woche beschäftigen sollte.

Beispiel (PageIndex{2})

Professor Hamer nimmt eine cholesterinarme Diät ein. Beim Mittagessen in der College-Cafeteria wählt er immer zwischen zwei Mahlzeiten, Pasta oder Tofu. Die folgende Tabelle listet die Menge an Protein, Kohlenhydraten und Vitaminen auf, die jede Mahlzeit liefert, zusammen mit der Menge an Cholesterin, die er zu minimieren versucht. Herr Hamer braucht jeden Monat mindestens 200 Gramm Eiweiß, 960 Gramm Kohlenhydrate und 40 Gramm Vitamine zum Mittagessen. Wie viele Tage sollte er in diesem Zeitraum die Pasta-Mahlzeit und wie viele Tage die Tofu-Mahlzeit zu sich nehmen, damit er die ausreichende Menge an Proteinen, Kohlenhydraten und Vitaminen bekommt und gleichzeitig seine Cholesterinaufnahme minimiert?

PASTA

TOFU

EIWEISS

8g

16g

KOHLENHYDRATE

60g

40g

VITAMIN C

2g

2g

CHOLESTERIN

60mg

50mg

Lösung

Wir wählen die Variablen wie folgt aus.

Sei (x) = Die Anzahl der Tage, an denen Herr Hamer Pasta isst.

und (y) = Die Anzahl der Tage, an denen Herr Hamer Tofu isst.

Da er versucht, seine Cholesterinaufnahme zu minimieren, stellt unsere Zielfunktion die Gesamtmenge an Cholesterin C dar, die von beiden Mahlzeiten bereitgestellt wird.

[C = 60x + 50y onumber]

Die Einschränkung, die mit der Gesamtmenge an Protein verbunden ist, die von beiden Mahlzeiten bereitgestellt wird, ist

[8x + 16y ≥ 200 onumber]

In ähnlicher Weise werden die beiden Einschränkungen im Zusammenhang mit der Gesamtmenge an Kohlenhydraten und Vitaminen erhalten, und sie sind

[egin{array}{l}
60 x+40 y geq 960
2 x+2 y geq 40
end{array} onumber]

Die Randbedingungen, die besagen, dass x und y nicht negativ sind, sind

[x ≥ 0 ext{, und } y ≥ 0 onumber.]

Wir fassen alle Informationen wie folgt zusammen:

[egin{array}{ll}
extbf { Minimieren} & mathrm{C}=60 mathrm{x}+50 mathrm{y}
extbf { Betrifft: } & 8 mathrm{x}+16 mathrm{y} geq 200
& 60 mathrm{x}+40 mathrm{y} geq 960
& 2 mathrm{x}+2 mathrm{y} geq 40
& mathrm{x} geq 0 ; mathrm{y} geq 0
end{array} onumber]

Um das Problem zu lösen, stellen wir die Randbedingungen grafisch dar und schattieren den Machbarkeitsbereich.

Wir haben den unbegrenzten Machbarkeitsbereich schattiert, in dem alle Einschränkungen erfüllt sind.

Um die Zielfunktion zu minimieren, finden wir die Ecken des Machbarkeitsbereichs. Diese Eckpunkte sind (0, 24), (8, 12), (15, 5) und (25, 0). Um den Cholesterinspiegel zu minimieren, ersetzen wir diese Punkte in der Zielfunktion, um zu sehen, welcher Punkt uns den kleinsten Wert liefert. Die Ergebnisse sind unten aufgeführt.

Kritische PunkteEinkommen
(0, 24)60(0) + 50(24) = 1200
(8, 12)60(8) + 50(12) = 1080
(15, 5)60(15) + 50(5) = 1150
(25, 0)60(25) + 50(0) = 1500

Der Punkt (8, 12) ergibt das geringste Cholesterin, das 1080 mg beträgt. Diese besagt, dass Professor Hamer für alle 20 Mahlzeiten Pasta 8 Tage und Tofu 12 Tage essen sollte.

Wir müssen uns bewusst sein, dass in einigen Fällen ein lineares Programm möglicherweise keine optimale Lösung hat.

  • Ein lineares Programm kann keine optimale Lösung haben, wenn es keinen Durchführbarkeitsbereich gibt. Wenn die Ungleichheitsbeschränkungen nicht kompatibel sind, gibt es möglicherweise keinen Bereich im Graphen, der alle die Einschränkungen. Wenn das lineare Programm keine zulässige Lösung hat, die alle Randbedingungen erfüllt, kann es keine optimale Lösung haben.
  • Ein lineares Programm kann keine optimale Lösung haben, wenn der Durchführbarkeitsbereich unbegrenzt ist.
    • Die beiden von uns untersuchten linearen Minimierungsprogramme hatten unbegrenzte Durchführbarkeitsbereiche. Der Machbarkeitsbereich war an einigen Seiten durch Beschränkungen begrenzt, wurde jedoch nicht vollständig von den Beschränkungen umschlossen. Beide Minimierungsprobleme hatten optimale Lösungen.
    • Wenn wir jedoch ein Maximierungsproblem mit einem ähnlichen unbeschränkten Machbarkeitsbereich betrachten würden, hätte das lineare Programm keine optimale Lösung. Egal welche Werte von x und y gewählt wurden, wir konnten immer andere Werte von (x) und (y) finden, die einen höheren Wert für die Zielfunktion ergeben würden. Mit anderen Worten, wenn der Wert der Zielfunktion in einem linearen Programm mit einem unbeschränkten zulässigen Bereich unbegrenzt erhöht werden kann, gibt es keine optimale maximale Lösung.

Obwohl die Methode zur Lösung von Minimierungsproblemen ähnlich der der Maximierungsprobleme ist, sind wir dennoch der Meinung, dass wir die damit verbundenen Schritte zusammenfassen sollten.

Minimierung von Problemen bei der linearen Programmierung

  1. Schreiben Sie die Zielfunktion.
  2. Schreiben Sie die Einschränkungen.
    1. Für Standard-Minimierungsprobleme der linearen Programmierung haben Beschränkungen die Form: (ax + by ≥ c)
    2. Da die Variablen nicht negativ sind, schließen Sie die Einschränkungen ein: (x ≥ 0); (y ≥ 0).
  3. Stellen Sie die Einschränkungen grafisch dar.
  4. Schattieren Sie den Machbarkeitsbereich.
  5. Finden Sie die Eckpunkte.
  6. Bestimmen Sie den Eckpunkt, der den minimalen Wert ergibt.
    1. Dies kann erfolgen, indem der Wert der Zielfunktion an jedem Eckpunkt ermittelt wird.
    2. Dies kann auch durch Verschieben der der Zielfunktion zugeordneten Linie erfolgen.
    3. Es besteht die Möglichkeit, dass das Problem keine Lösung hat

Planbarkeitsanalyse und Minimierung der Stack-Größe mit Preemption-Schwellenwerten und Planung mit gemischter Kritikalität

Mixed-Criticality Scheduling (MCS) ist ein effektiver Ansatz zur Erfüllung der Zertifizierungsanforderungen sicherheitskritischer Cyber-Physical Systems, die mehrere Subsysteme mit unterschiedlichen Kritikalitätsstufen in Anwendungsdomänen wie Avionik und Automobilsystemen integrieren. Obwohl MCS ursprünglich im Zusammenhang mit sicherheitskritischen Avionikanwendungen vorgeschlagen wurde, findet es auch seinen Weg in den Automobilbereich, der im heutigen hart umkämpften Markt einem starken Kostensenkungsdruck ausgesetzt ist -Kosten Prozessoren mit begrenzten Verarbeitungs- und Speicherressourcen. Preemption Threshold Scheduling (PTS) ist eine wohlbekannte Technik zum Steuern des Preemption-Grades beim Echtzeit-Scheduling mit Vorteilen einer reduzierten Stapelgröße und einer reduzierten Anzahl von Preemptions im Vergleich zu einem vollständig präemptiven Scheduling. Wir präsentieren eine Planbarkeitsanalyse, um die Integration von PTS mit MCS zu ermöglichen, einschließlich der beiden Varianten PT-rtb und PT-max, um den Bedarf an Anwendungsstapelplatz zu reduzieren und eine effiziente Implementierung von MCS auf ressourcenbeschränkten eingebetteten Plattformen zu ermöglichen. Wir integrieren unsere Schedulability-Tests auch in Algorithmen zur Zuweisung von Prioritäts- und Vorkaufsschwellenwerten, um eine Komplettlösung für die Analyse und Synthese von Systemen mit gemischter Kritikalität zu erhalten. Die Leistungsbewertung veranschaulicht die Vorteile unseres Ansatzes in Bezug auf erhöhte Planbarkeit und reduzierten Stack-Bedarf.


Zweiphasenmethode: Minimierungsbeispiel 1

Wenn die Zielfunktion in Minimierungsform vorliegt, wandeln Sie sie in Maximierungsform um.

Den Sinn der Optimierung ändern

Jedes lineare Minimierungsproblem kann als äquivalentes lineares Maximierungsproblem angesehen werden und umgekehrt. Speziell:

Wenn z der optimale Wert des linken Ausdrucks ist, dann ist -z der optimale Wert des rechten Ausdrucks.

Umwandeln von Ungleichungen in Gleichheiten

Wo:
x4 ist eine lockere Variable
x5 ist eine Überschussvariable

Die Überschussvariable x5 stellt die zusätzlichen Einheiten dar.

Wenn wir nun x1, x2 und x3 gleich Null in der Anfangslösung haben wir x4 = 5 und x5 = -2, was nicht möglich ist, da eine Überschussvariable nicht negativ sein kann. Daher brauchen wir künstliche Variablen.

Wo ein1 und ein2 sind künstliche Variablen.

Phase 1 der Zweiphasenmethode

In dieser Phase entfernen wir die künstlichen Variablen und finden eine erste zulässige Lösung des ursprünglichen Problems. Nun kann die Zielfunktion ausgedrückt werden als

Anfängliche grundlegende zulässige Lösung

Die initiale zulässige Basislösung erhält man durch Setzen von
x1 = x2 = x3 = x5 = 0

Dann haben wir A1 = 2 , A2 = 5, x4 = 5

Zweiphasenmethode: Tabelle 1

Scrollen Sie auf kleinen Bildschirmen horizontal, um die vollständige Berechnung anzuzeigen

Cj 0 0 0 0 0 -1 -1
CB Basisvariablen
B
x1 x2 x3 x4 x5 EIN1 EIN2 Lösungswerte
b (= XB)
0 x4 1 3 1 1 0 0 0 5
-1 EIN1 2 -1 1 0 -1 1 0 2
-1 EIN2 4 3 -2 0 0 0 1 5
zj–cj -6 -2 1 0 1 0 0

Schlüsselspalte = x1 Säule
Mindestens (5/1, 2/2, 5/4) = 1
Tastenreihe = A1 die Zeile
Drehelement = 2
A1 fährt ab und x1 tritt ein.

A2 fährt ab und x2 tritt ein.
Hier endet Phase 1 weil beide künstlichen Variablen aus der Basis entfernt wurden.

Phase 2 der Zweiphasenmethode

Die zulässige Basislösung am Ende der Berechnung der Phase 1 wird als anfängliche zulässige Basislösung des Problems verwendet. Die ursprüngliche Zielfunktion wird in der Berechnung der Phase 2 eingeführt und das übliche Simplex-Verfahren wird verwendet, um das Problem zu lösen.

Verwenden Sie die horizontale Bildlaufleiste, um die vollständige Berechnung anzuzeigen

Cj 3 -1 2 0 0
CB Basisvariablen
B
x1 x2 x3 x4 x5 Lösungswerte
b (= XB)
0 x4 0 0 33/10 1 -9/10 33/10
3 x1 1 0 1/10 0 -3/10 11/10
-1 x2 0 1 -4/5 0 2/5 1/5
zj-Cj 0 0 -9/10 0 -13/10
Cj 3 -1 2 0 0
CB Basisvariablen
B
x1 x2 x3 x4 x5 Lösungswerte
b (= XB)
0 x4 0 9/4 3/2 1 0 15/4
3 x1 1 3/4 -1/2 0 0 5/4
0 x5 0 5/2 -2 0 1 1/2
zj-Cj 0 13/4 -7/2 0 0

Seien Sie nicht ungeduldig. Der nächste Tisch ist der letzte Tisch.

"Die nützlichste Tugend ist Geduld" - John Dewey

Zwei-Phasen-Methode: Endgültige optimale Tabelle

Cj 3 -1 2 0 0
CB Basisvariablen
B
x1 x2 x3 x4 x5 Lösungswerte
b (= XB)
2 x3 0 3/2 1 2/3 0 5/2
3 x1 1 3/2 0 1/3 0 5/2
0 x5 0 11/2 0 4/3 1 11/2
zj-Cj 0 17/2 0 7/3 0

Eine optimale Richtlinie ist x1 = 5/2, x2 = 0, x3 = 5/2. Der zugehörige Optimalwert der Zielfunktion ist z = 3 X (5/2) – 0 + 2 X (5/2) = 25/2.


Scipy.optimize.minimize¶

Minimierung der Skalarfunktion einer oder mehrerer Variablen.

Parameter Spaß abrufbar

Die zu minimierende Zielfunktion.

wobei x ein 1-D-Array mit Form (n,) ist und args ist ein Tupel der festen Parameter, die benötigt werden, um die Funktion vollständig zu spezifizieren.

x0 ndarray, form (n,)

Erste Vermutung. Array von reellen Elementen der Größe (n,), wobei ‚n‘ die Anzahl der unabhängigen Variablen ist.

args Tupel, optional

Zusätzliche Argumente, die an die Zielfunktion und ihre Ableitungen übergeben werden (Spaß, jac und hess Funktionen).

Methode str oder aufrufbar, optional

Art des Lösers. Sollte einer von sein

  • ‘Nelder-Mead’ (siehe hier)

  • „Powell“ (siehe hier)

  • „CG“ (siehe hier)

  • „BFGS“ (siehe hier)

  • ‘Newton-CG’ (siehe hier)

  • ‘L-BFGS-B’ (siehe hier)

  • „TNC“ (siehe hier)

  • „COBYLA“ (siehe hier)

  • „SLSQP“ (siehe hier)

  • ‘trust-constr’ (siehe hier)

  • „Dogleg“ (siehe hier)

  • 'trust-ncg' (siehe hier)

  • „vertrauensgenau“ (siehe hier)

  • ‘trust-krylov’ (siehe hier)

  • custom - ein aufrufbares Objekt (in Version 0.14.0 hinzugefügt), siehe unten für eine Beschreibung.

Falls nicht angegeben, wird einer von BFGS , L-BFGS-B , SLSQP ausgewählt, je nachdem, ob das Problem Einschränkungen oder Grenzen hat.

Verfahren zur Berechnung des Gradientenvektors. Nur für CG, BFGS, Newton-CG, L-BFGS-B, TNC, SLSQP, Dogleg, trust-ncg, trust-krylov, trust-exact und trust-constr. Wenn es ein Callable ist, sollte es eine Funktion sein, die den Gradientenvektor zurückgibt:

jac(x, *args) -> array_like, shape (n,)

wobei x ein Array mit der Form (n,) ist und args ist ein Tupel mit den festen Parametern. Alternativ wählen die Schlüsselwörter <‘2-point’,’3-point’,’cs’>ein Finite-Differenzen-Schema zur numerischen Schätzung des Gradienten. Die Optionen „3-point“ und „cs“ stehen nur „trust-constr“ zur Verfügung. Ob jac ist ein boolescher Wert und ist wahr, Spaß Es wird angenommen, dass der Gradient zusammen mit der Zielfunktion zurückgegeben wird. Bei „False“ wird der Gradient mit der „2-Punkt“-Finite-Differenzen-Schätzung geschätzt.

Verfahren zur Berechnung der Hessischen Matrix. Nur für Newton-CG, Dogleg, Trust-ncg, Trust-Krylov, Trust-Exact und Trust-Constr. Wenn es aufrufbar ist, sollte es die hessische Matrix zurückgeben:

wobei x ein (n,) ndarray ist und args ist ein Tupel mit den festen Parametern. LinearOperator- und Sparse-Matrix-Rückgaben sind nur für die Methode „trust-constr“ zulässig. Alternativ wählen die Schlüsselwörter <‚2-point‘, ‚3-point‘, ‚cs‘>ein Finite-Differenzen-Schema zur numerischen Schätzung. Oder Objekte, die die Schnittstelle HessianUpdateStrategy implementieren, können verwendet werden, um das Hessian anzunähern. Verfügbare Quasi-Newton-Methoden, die diese Schnittstelle implementieren, sind:

Wenn der Gradient über endliche Differenzen geschätzt wird, kann der Hesse-Wert nicht mit den Optionen <‘2-Punkt‘, ‘3-Punkt‘, ‘cs‘> geschätzt werden und muss mit einer der Quasi-Newton-Strategien geschätzt werden. Finite-Differenz-Optionen <‘2-point‘, ‚3-point‘, ‚cs‘>und HessianUpdateStrategy sind nur für die Methode ‚trust-constr‘ verfügbar.

hess aufrufbar, optional

Hessian der Zielfunktion mal einem beliebigen Vektor p. Nur für Newton-CG, trust-ncg, trust-krylov, trust-constr. Nur einer von hess oder hess muss gegeben werden. Ob hess bereitgestellt wird, dann hess wird ignoriert. hess muss das hessische mal einen beliebigen Vektor berechnen:

hessp(x, p, *args) ->   ndarray-Form (n,)

wobei x ein (n,) ndarray ist, p ein beliebiger Vektor mit Dimension (n,) und args ist ein Tupel mit den festen Parametern.

Grenzen Sequenz oder Grenzen , optional

Bindungen an Variablen für L-BFGS-B, TNC, SLSQP und Trust-Constr-Methoden. Es gibt zwei Möglichkeiten, die Grenzen anzugeben:

  1. Instanz der Bounds-Klasse.

  2. Folge von (min, max) Paaren für jedes Element in x. None wird verwendet, um keine Grenze anzugeben.

Einschränkungsdefinition (nur für COBYLA, SLSQP und trust-constr). Einschränkungen für „trust-constr“ werden als ein einzelnes Objekt oder eine Liste von Objekten definiert, die Einschränkungen für das Optimierungsproblem angeben. Verfügbare Einschränkungen sind:

Einschränkungen für COBYLA, SLSQP sind als Liste von Wörterbüchern definiert. Jedes Wörterbuch mit Feldern:

str eingeben

Einschränkungstyp: „eq“ für Gleichheit, „ineq“ für Ungleichheit.

Spaß aufrufbar

Die Funktion, die die Einschränkung definiert.

jac aufrufbar, optional

Der Jacobi von Spaß (nur für SLSQP).

args-Sequenz, optional

Zusätzliche Argumente, die an die Funktion und Jacobian übergeben werden.

Gleichheitsbeschränkung bedeutet, dass das Ergebnis der Beschränkungsfunktion null sein soll, während Ungleichheit bedeutet, dass es nicht negativ sein soll. Beachten Sie, dass COBYLA nur Ungleichheitsbeschränkungen unterstützt.

tol Schwimmer, optional

Toleranz bei Kündigung. Verwenden Sie für eine detaillierte Steuerung solverspezifische Optionen.

Optionen diktieren, optional

Ein Wörterbuch der Solver-Optionen. Alle Methoden akzeptieren die folgenden generischen Optionen:

maxiter int

Maximale Anzahl der auszuführenden Iterationen.

disp bool

Auf True setzen, um Konvergenznachrichten zu drucken.

Methodenspezifische Optionen finden Sie unter show_options .

Ruf zurück aufrufbar, optional

Wird nach jeder Iteration aufgerufen. Für ‚trust-constr‘ ist es ein Callable mit der Signatur:

callback(xk, OptimizeResult-Zustand) -> bool

wobei xk der aktuelle Parametervektor ist. und state ist ein OptimizeResult-Objekt mit denselben Feldern wie die aus der Rückgabe. Wenn callback True zurückgibt, wird die Ausführung des Algorithmus beendet. Für alle anderen Methoden lautet die Signatur:

wobei xk der aktuelle Parametervektor ist.

Kehrt zurück res Ergebnis optimieren

Das als OptimizeResult-Objekt dargestellte Optimierungsergebnis. Wichtige Attribute sind: x das Lösungsarray, Erfolg ein boolesches Flag, das anzeigt, ob der Optimierer erfolgreich beendet wurde, und eine Nachricht, die die Ursache der Beendigung beschreibt. Eine Beschreibung anderer Attribute finden Sie unter OptimizeResult.

Schnittstelle zu Minimierungsalgorithmen für skalare univariate Funktionen

Zusätzliche Optionen, die von den Solvern akzeptiert werden

In diesem Abschnitt werden die verfügbaren Solver beschrieben, die mit dem Parameter „Methode“ ausgewählt werden können. Die Standardmethode ist BFGS.

Uneingeschränkte Minimierung

Methode Nelder-Mead verwendet den Simplex-Algorithmus [1], [2]. Dieser Algorithmus ist in vielen Anwendungen robust. Wenn jedoch der numerischen Berechnung der Ableitung vertraut werden kann, könnten andere Algorithmen, die die Informationen der ersten und/oder der zweiten Ableitung verwenden, wegen ihrer besseren Leistung im Allgemeinen bevorzugt werden.

Methode Powell ist eine Modifikation der Methode von Powell [3], [4], die eine konjugierte Richtungsmethode ist. Es führt sequentielle eindimensionale Minimierungen entlang jedes Vektors der eingestellten Richtungen durch (direkt Feld in Optionen und die Info), die bei jeder Iteration der Hauptminimierungsschleife aktualisiert wird. Die Funktion muss nicht differenzierbar sein und es werden keine Ableitungen gebildet.

Methode CG verwendet einen nichtlinearen konjugierten Gradientenalgorithmus von Polak und Ribiere, eine Variante des Fletcher-Reeves-Verfahrens, das in [5] S. 120-122 beschrieben ist. Es werden nur die ersten Ableitungen verwendet.

Methode BFGS verwendet die Quasi-Newton-Methode von Broyden, Fletcher, Goldfarb und Shanno (BFGS) [5] S. 136. Sie verwendet nur die ersten Ableitungen. BFGS hat sich auch bei nicht glatten Optimierungen als gute Leistung erwiesen. Diese Methode gibt auch eine Näherung der hessischen Inversen zurück, gespeichert als hess_inv im OptimizeResult-Objekt.

Methode Newton-CG verwendet einen Newton-CG-Algorithmus [5] S. 168 (auch als verkürzte Newton-Methode bekannt). Es verwendet eine CG-Methode, um die Suchrichtung zu berechnen. Siehe auch TNC Methode für eine Box-beschränkte Minimierung mit einem ähnlichen Algorithmus. Geeignet für großflächige Probleme.

Die Methode Dogleg verwendet den Dog-Leg-Trust-Region-Algorithmus [5] für eine uneingeschränkte Minimierung. Dieser Algorithmus erfordert den Gradienten und die Hesse-Funktion, außerdem muss die Hesse-Funktion positiv definit sein.

Die Methode trust-ncg verwendet den konjugierten Gradienten-Trust-Region-Algorithmus von Newton [5] für eine uneingeschränkte Minimierung. Dieser Algorithmus erfordert den Gradienten und entweder den Hesse-Wert oder eine Funktion, die das Produkt des Hesse-Werts mit einem gegebenen Vektor berechnet. Geeignet für großflächige Probleme.

Die Methode trust-krylov verwendet den Newton GLTR Trust-Region-Algorithmus [14], [15] für eine uneingeschränkte Minimierung. Dieser Algorithmus erfordert den Gradienten und entweder den Hesse-Wert oder eine Funktion, die das Produkt des Hesse-Werts mit einem gegebenen Vektor berechnet. Geeignet für großflächige Probleme. Bei unbestimmten Problemen erfordert es normalerweise weniger Iterationen als die than Vertrauen-ncg Methode und wird für mittlere und große Probleme empfohlen.

Die Methode trust-exact ist eine Trust-Region-Methode zur uneingeschränkten Minimierung, bei der quadratische Teilprobleme nahezu exakt gelöst werden [13]. Dieser Algorithmus benötigt den Gradienten und das Hessische (das ist nicht muss positiv definit sein). Es ist in vielen Situationen die Newton-Methode, um in weniger Iterationen zu konvergieren und wird für kleine und mittelgroße Probleme am meisten empfohlen.

Limitierte Minimierung

Das Verfahren L-BFGS-B verwendet den L-BFGS-B-Algorithmus [6], [7] zur Minimierung von Begrenzungen.

Methode TNC verwendet einen verkürzten Newton-Algorithmus [5], [8], um eine Funktion mit begrenzten Variablen zu minimieren. Dieser Algorithmus verwendet Gradienteninformationen und wird auch Newton Conjugate-Gradient genannt. Es unterscheidet sich von der Newton-CG oben beschriebene Methode, da sie eine C-Implementierung umschließt und es ermöglicht, jeder Variablen Ober- und Untergrenzen zuzuweisen.

Eingeschränkte Minimierung

Methode COBYLA verwendet die Constrained Optimization BY Linear Approximation (COBYLA) Methode [9], [10], [11]. Der Algorithmus basiert auf linearen Annäherungen an die Zielfunktion und jede Einschränkung. Das Verfahren umschließt eine FORTRAN-Implementierung des Algorithmus. Die Einschränkungsfunktionen ‚fun‘ können entweder eine einzelne Zahl oder ein Array oder eine Liste von Zahlen zurückgeben.

Methode SLSQP verwendet Sequential Least SQuares Programming, um eine Funktion mehrerer Variablen mit einer beliebigen Kombination von Beschränkungen, Gleichheits- und Ungleichheitsbeschränkungen zu minimieren. Das Verfahren umschließt die SLSQP-Optimierungs-Subroutine, die ursprünglich von Dieter Kraft [12] implementiert wurde. Beachten Sie, dass der Wrapper unendliche Werte in Grenzen verarbeitet, indem er sie in große Gleitkommawerte umwandelt.

Die Methode trust-constr ist ein Trust-Region-Algorithmus für die eingeschränkte Optimierung. Es wechselt je nach Problemstellung zwischen zwei Implementierungen. Es ist der vielseitigste in SciPy implementierte eingeschränkte Minimierungsalgorithmus und der am besten geeignete für groß angelegte Probleme. Für gleichheitsbeschränkte Probleme ist es eine Implementierung des Byrd-Omojokun Trust-Region SQP-Verfahrens, beschrieben in [17] und in [5], S. 549. Wenn auch Ungleichheitsbeschränkungen auferlegt werden, wird auf die in [16] beschriebene Trust-Region-Innere-Point-Methode umgeschaltet. Dieser innere Punktalgorithmus löst wiederum Ungleichheitsbeschränkungen, indem er lockere Variablen einführt und eine Folge von gleichheitsbeschränkten Barriereproblemen für progressiv kleinere Werte des Barriereparameters löst. Die zuvor beschriebene SQP-Methode mit Gleichheitsbeschränkung wird verwendet, um die Teilprobleme mit zunehmender Genauigkeit zu lösen, je näher die Iteration einer Lösung kommt.

Finite-Differenz-Optionen

Für Method trust-constr können der Gradient und der Hessian durch drei Finite-Differenzen-Schemata approximiert werden: <‘2-point‘, ‚3-point‘, ‚cs‘> Das Schema „cs“ ist möglicherweise das genaueste, erfordert jedoch, dass die Funktion komplexe Eingaben korrekt verarbeitet und in der komplexen Ebene differenzierbar ist. Das Schema „3-Punkt“ ist genauer als „2-Punkt“, erfordert aber doppelt so viele Operationen.

Benutzerdefinierte Minimierer

Es kann sinnvoll sein, eine benutzerdefinierte Minimierungsmethode zu übergeben, beispielsweise wenn ein Frontend an diese Methode wie scipy.optimize.basinhopping oder eine andere Bibliothek verwendet wird. Sie können einfach ein Callable als Methodenparameter übergeben.

Das Callable wird als method(fun, x0, args, **kwargs, **options) aufgerufen, wobei kwargs allen anderen Parametern entspricht, die zum Minimieren übergeben werden (wie z Ruf zurück, hess, usw.), außer der Optionen dict, dessen Inhalt auch übergeben wird als Methode Parameter paarweise. Auch wenn jac wurde als bool Typ übergeben, jac und Spaß sind so verstümmelt, dass Spaß gibt nur die Funktionswerte zurück und jac wird in eine Funktion umgewandelt, die den Jacobi-Wert zurückgibt. Die Methode soll ein OptimizeResult-Objekt zurückgeben.

Die bereitgestellten Methode callable muss in der Lage sein, beliebige Parameter zu akzeptieren (und möglicherweise zu ignorieren). Der von minimieren akzeptierte Parametersatz kann in zukünftigen Versionen erweitert werden und dann werden diese Parameter an die Methode übergeben. Ein Beispiel finden Sie im Tutorial scipy.optimize.

Nelder, J. A. und R. Mead. 1965. Eine Simplex-Methode zur Funktionsminimierung. Die Computerzeitung 7: 308-13.

Wright M H. 1996. Direkte Suchmethoden: Einst verachtet, jetzt respektabel, in Numerical Analysis 1995: Proceedings of the 1995 Dundee Biennial Conference in Numerical Analysis (Hrsg. D. F. Griffiths und G. A. Watson). Addison Wesley Longman, Harlow, Großbritannien. 191-208.

Powell, M. J. D. 1964. Eine effiziente Methode, um das Minimum einer Funktion mehrerer Variablen zu finden, ohne Ableitungen zu berechnen. Die Computerzeitung 7: 155-162.

Presse W, S. A. Teukolsky, W. T. Vetterling und B. P. Flannery. Numerical Recipes (jede Ausgabe), Cambridge University Press.

Nocedal, J und S. J. Wright. 2006. Numerische Optimierung. Springer New York.

Byrd, R H und P Lu und J. Nocedal. 1995. Ein Algorithmus mit begrenztem Speicher für die gebundene Optimierung. SIAM Journal on Scientific and Statistical Computing 16 (5): 1190-1208.

Zhu, C. und R. H. Byrd und J. Nocedal. 1997. L-BFGS-B: Algorithmus 778: L-BFGS-B, FORTRAN-Routinen für die eingeschränkte Optimierung im großen Maßstab. ACM-Transaktionen mit mathematischer Software 23 (4): 550-560.

Nash, S. G. Minimierung des Newton-Typs nach der Lanczos-Methode. 1984. SIAM Journal of Numerical Analysis 21: 770-778.

Powell, M. J. D. Eine Methode zur direkten Suchoptimierung, die die Ziel- und Beschränkungsfunktionen durch lineare Interpolation modelliert. 1994. Advances in Optimization and Numerical Analysis, Hrsg. S. Gomez und J-P Hennart, Kluwer Academic (Dordrecht), 51-67.

Powell M J D. Direkte Suchalgorithmen für Optimierungsrechnungen. 1998. Acta Numerica 7: 287–336.

Powell M J D. Eine Ansicht von Algorithmen zur Optimierung ohne Ableitungen. 2007. Technischer Bericht der Universität Cambridge DAMTP 2007/NA03

Kraft, D. Ein Softwarepaket für die sequentielle quadratische Programmierung. 1988. Tech. Rep. DFVLR-FB 88-28, DLR Deutsches Zentrum für Luft- und Raumfahrt – Institut für Flugmechanik, Köln, Deutschland.

Conn, A. R., Gould, N. I. und Toint, P. L. Vertrauensregionsmethoden. 2000. Siam. S. 169-200.

F. Lenders, C. Kirches, A. Potschka: „trlib: A vector-free Implementation of the GLTR method for iterative solution of the trust region problem“, https://arxiv.org/abs/1611.04718

N. Gould, S. Lucidi, M. Roma, P. Toint: „Solving the Trust-Region Subproblem using the Lanczos Method“, SIAM J. Optim., 9(2), 504–525, (1999).

Byrd, Richard H., Mary E. Hribar und Jorge Nocedal. 1999. Ein innerer Punktalgorithmus für die großräumige nichtlineare Programmierung. SIAM Journal on Optimization 9.4: 877-900.

Lalee, Marucha, Jorge Nocedal und Todd Plantega. 1998. Zur Implementierung eines Algorithmus zur großskaligen, gleichheitsbeschränkten Optimierung. SIAM Journal on Optimization 8.3: 682-706.

Betrachten wir das Problem der Minimierung der Rosenbrock-Funktion. Diese Funktion (und ihre jeweiligen Derivate) ist in rosen (bzw. rosen_der , rosen_hess ) in der scipy.optimize implementiert.

Eine einfache Anwendung des Nelder-Met Methode ist:

Verwenden Sie jetzt die BFGS Algorithmus mit der ersten Ableitung und einigen Optionen:

Betrachten Sie als nächstes ein Minimierungsproblem mit mehreren Einschränkungen (nämlich Beispiel 16.4 aus [5]). Die Zielfunktion lautet:


4. Der QAOA-Algorithmus Der Quantum Approximation Optimization Algorithmus (QAOA) von Farhi, Goldstone und Gutmann 3 ist ein Beispiel für einen heuristischen Algorithmus. Im Gegensatz zum Goemans-Williamson-Algorithmus bietet QAOA keine Leistungsgarantien. QAOA verfolgt den Ansatz klassischer Näherungsalgorithmen und sucht nach einem Quantenanalogon, das ebenfalls eine klassische Bitfolge $x^*$ erzeugt, von der mit hoher Wahrscheinlichkeit ein gutes Näherungsverhältnis $alpha$ erwartet wird. Bevor wir auf die Details eingehen, wollen wir zunächst die allgemeine Idee dieses Ansatzes vorstellen.

4.1 Übersicht:

Wir wollen einen Quantenzustand $|psi_p(vec,vec<eta>) angle$ finden, der von einigen reellen Parametern $vec,vec <eta> . abhängt in mathbb^p$, das die Eigenschaft hat, den Erwartungswert bezüglich des Problem-Hamiltonian $H$ zu maximieren. In diesem Versuchszustand suchen wir nach Parametern $vec^*,vec<eta>^*$, die $F_p(vec,vec<eta>) = langle psi_p(vec,vec<eta>)|H|psi_p(vec,vec<eta>) angle$.

Sobald wir einen solchen Zustand und die entsprechenden Parameter haben, bereiten wir den Zustand $|psi_p(vec^*,vec<eta>^*) angle$ auf einem Quantencomputer vor und messen den Zustand im $Z$ Basis $|x angle = |x_1,ldots x_n angle$ um ein zufälliges Ergebnis $x^*$ zu erhalten.

Wir werden sehen, dass dieses zufällige $x^*$ eine Bitfolge ist, die mit hoher Wahrscheinlichkeit nahe am Erwartungswert $M_p = F_p(vec^*,vec<eta>^* )$. Wenn also $M_p$ in der Nähe von $C_ liegt$ so ist $C(x^*)$.

4.2 Die Komponenten des QAOA-Algorithmus.

4.2.1 Der QSR-Versuchszustand Zentral für QAOA ist der Versuchszustand $|psi_p(vec,vec) angle$, der auf dem Quantencomputer vorbereitet wird. Idealerweise soll dieser Zustand zu einem großen Erwartungswert führen $F_p(vec,vec) = langle psi_p(vec,vec) |H|psi_p(vec,vec) angle$ bezüglich des Problems Hamiltonoperator $H$. In Farhi 3 werden die Versuchszustände $|psi_p(vec,vec) angle$ aus dem Problem Hamiltonian $H$ zusammen mit einzelnen Qubit Pauli $X$ Rotationen konstruiert. Das heißt, bei einem gegebenen Problem-Hamiltonian Diagonale in der Rechenbasis und ein transversaler Feld-Hamiltonian der Versuchszustand wird durch die Anwendung von $p$ alternierenden Einheiten vorbereitet prepared zum Produktzustand $|+ angle^n$ mit $ X |+ angle = |+ angle$. Dieser spezielle Ansatz hat den Vorteil, dass es eine explizite Wahl für die Vektoren $vec^*,vec^*$ gibt, so dass für $M_p = F_p(vec^* ,vec^*)$ wenn wir das Limit $lim_ nehmen M_p = C_$. Dies folgt, indem man den Versuchszustand $|psi_p(vec,vec) angle$ als den Zustand betrachtet, der sich aus der Traberisierung der adiabatischen Evolution bezüglich $H$ und dem Querfeld-Hamiltonian $B$, siehe Ref. 3. Umgekehrt ist der Nachteil dieses Versuchszustands, dass man typischerweise einen Zustand haben möchte, der von einem nicht zu tiefen Quantenschaltkreis erzeugt wurde. Hier wird die Tiefe in Bezug auf die Gates gemessen, die direkt auf dem Quantenchip aufgebracht werden können. Daher gibt es andere Vorschläge, die die Verwendung von Ansatzversuchszuständen vorschlagen, die mehr auf die Hardware des Quantenchips Ref zugeschnitten sind. 4, Ref.-Nr. 5. 4.2.2 Berechnung des Erwartungswerts Ein wichtiger Bestandteil dieses Ansatzes ist, dass wir den Erwartungswert berechnen oder schätzen müssen damit können wir die Parameter $vec,vec$ optimieren. Wir betrachten hier zwei Szenarien.

Klassische Auswertung

Beachten Sie, dass es möglich ist, den Erwartungswert $F_p$ klassisch auszuwerten, wenn die Schaltung zur Vorbereitung von $|psi_p(vec,vec<eta>) angle$ nicht zu tief ist.

Dies geschieht zum Beispiel, wenn man $MAXCUT$ für Graphen mit beschränktem Grad und einen Kreis mit $p=1$ betrachtet. Wir werden ein Beispiel dafür in der Qiskit-Implementierung unten (Abschnitt 5.2) sehen und eine Übung zur Berechnung des Erwartungswerts bereitstellen.

Um die Idee zu veranschaulichen, erinnern Sie sich daran, dass der Hamilton-Operator als Summe einzelner Terme geschrieben werden kann $H = sum_^m hat_k$. Due to the linearity of the expectation value, it is sufficient to consider the expectation values of the individual summands. For $p = 1$ one has that

Observe that with $B = sum_^n X_i$ the unitary $e^< -ieta_1 B >$ is actually a product of single qubit rotations about $X$ with an angle $eta$ for which we will write $X(eta)_k = exp(ieta X_k)$.

All the individual rotations that don't act on the qubits where $hat_k$ is supported commute with $hat_k$ and therefore cancel. This does not increase the support of the operator $hat_k$. This means that the second set of unitary gates $e^ < -igamma_1 H >= prod_^m U_l(gamma)$ have a large set of gates $U_l(gamma) = e^< -igamma_1 hat_l >$ that commute with the operator $e^ < ieta_1 B >hat_k e^< -ieta_1 B >$. The only gates $U_l(gamma) = e^< -igamma_1 hat_l >$ that contribute to the expectation value are those which involve qubits in the support of the original $hat_k$.

Hence, for bounded degree interaction the support of $e^ < igamma_1 H >e^ < ieta_1 B >hat_k e^ < -ieta_1 B >e^< -igamma_1 H >$ only expands by an amount given by the degree of the interaction in $H$ and is therefore independent of the system size. This means that for these smaller sub problems the expectation values are independent of $n$ and can be evaluated classically. The case of a general degree $3$ is considered in 3.

This is a general observation, which means that if we have a problem where the circuit used for the trial state preparation only increases the support of each term in the Hamiltonian by a constant amount the cost function can be directly evaluated.

When this is the case, and only a few parameters $eta, gamma$ are needed in the preparation of the trial state, these can be found easily by a simple grid search. Furthermore, an exact optimal value of $M_p$ can be used to bound the approximation ratio

to obtain an estimate of $alpha$. For this case the QAOA algorithm has the same characteristics as a conventional approximate optimization algorithm that comes with a guaranteed approximation ratio that can be obtained with polynomial efficiency in the problem size.

Evaluation on a quantum computer

When the quantum circuit becomes too deep to be evaluated classically, or when the connectivity of the Problem Hamiltonian is too high we can resort to other means of estimating the expectation value. This involves directly estimating $F_p(vec,vec<eta>)$ on the quantum computer. The approach here follows the path of the conventional expectation value estimation as used in VQE 4, where a trial state $| psi_p(vec,vec<eta>) angle$ is prepared directly on the quantum computer and the expectation value is obtained from sampling.

Since QAOA has a diagonal Hamiltonian $H$ it is actually straight forward to estimate the expectation value. We only need to obtain samples from the trial state in the computational basis. Recall that $H = sum_^n> C(x) |x anglelangle x|$ so that we can obtain the sampling estimate of

by repeated single qubit measurements of the state $| psi_p(vec,vec<eta>) angle $ in the $Z$ basis. For every bit string $x$ obtained from the distribution $|langle x| psi_p(vec,vec<eta>) angle |^2$ we evaluate the cost function $C(x)$ and average it over the total number of samples. The resulting empirical average approximates the expectation value up to an additive sampling error that lies within the variance of the state. The variance will be discussed below.

With access to the expectation value, we can now run a classical optimization algorithm, such as 6, to optimize the $F_p$.

While this approach does not lead to an a-priori approximation guarantee for $x^*$, the optimized function value can be used later to provide an estimate for the approximation ratio $alpha$.

4.3.3 Obtaining a solution with a given approximation ratio with high probability

The algorithm is probabilistic in nature and produces random bit strings from the distribution $|langle x| psi_p(vec,vec<eta>) angle |^2$. So how can we be sure that we will sample an approximation $x^*$ that is close to the value of the optimized expectation value $M_p$? Note that this question is also relevant to the estimation of $M_p$ on a quantum computer in the first place. If the samples drawn from $|langle x| psi_p(vec,vec<eta>) angle |^2$ have too much variance, many samples are necessary to determine the mean.

We will draw a bit string $x^*$ that is close to the mean $M_p$ with high probability when the energy as variable has little variance.

Note that the number of terms in the Hamiltonian $H = sum_^m hat_k$ are bounded by $m$. Say each individual summand $hat_k$ has an operator norm that can be bounded by a universal constant $|hat_k| leq ilde$ for all $k = 1ldots m$. Then consider

where we have used that $langle psi_p(vec,vec<eta>)|hat_k hat_l |psi_p(vec,vec<eta>) angle leq ilde^2$.

This means that the variance of any expectation $F_p(vec,vec<eta>)$ is bounded by $m^2 ilde^2$. Hence this in particular applies for $M_p$. Furthermore if $m$ only grows polynomially in the number of qubits $n$, we know that taking polynomially growing number of samples $s = Oleft(frac< ilde^2 m^2> ight)$ from $|langle x| psi_p(vec,vec<eta>) angle |^2$ will be sufficient to obtain a $x^*$ that leads to an $C(x^*)$ that will be close to $M_p$.


Kmeans on Image Compression

In this part, we’ll implement kmeans to compress an image. The image that we’ll be working on is 396 x 396 x 3. Therefore, for each pixel location we would have 3 8-bit integers that specify the red, green, and blue intensity values. Our goal is to reduce the number of colors to 30 and represent (compress) the photo using those 30 colors only. To pick which colors to use, we’ll use kmeans algorithm on the image and treat every pixel as a data point. That means reshape the image from height x width x channels to (height * width) x channel, i,e we would have 396 x 396 = 156,816 data points in 3-dimensional space which are the intensity of RGB. Doing so will allow us to represent the image using the 30 centroids for each pixel and would significantly reduce the size of the image by a factor of 6. The original image size was 396 x 396 x 24 = 3,763,584 bits however, the new compressed image would be 30 x 24 + 396 x 396 x 4 = 627,984 bits. The huge difference comes from the fact that we’ll be using centroids as a lookup for pixels’ colors and that would reduce the size of each pixel location to 4-bit instead of 8-bit.

From now on we will be using sklearn implementation of kmeans. Few thing to note here:

  • n_init is the number of times of running the kmeans with different centroid’s initialization. The result of the best one will be reported.
  • tol is the within-cluster variation metric used to declare convergence.
  • The default of init is k-means++ which is supposed to yield a better results than just random initialization of centroids.

We can see the comparison between the original image and the compressed one. The compressed image looks close to the original one which means we’re able to retain the majority of the characteristics of the original image. With smaller number of clusters we would have higher compression rate at the expense of image quality. As a side note, this image compression method is called lossy data compression because we can’t reconstruct the original image from the compressed image.


Section 5 - Other Clinical Trial-related Attachments

Who must complete "Section 5 - Other Clinical Trial-related Attachments:"

If you answered "Yes" to all the questions in the "Clinical Trial Questionnaire:" Include an attachment only if your FOA specifies that an attachment(s) is required or permitted otherwise, do not include any Other Clinical Trial-related attachments.

If you answered "No" to any question in the "Clinical Trial Questionnaire:" Do not provide information in this section. Inputting information in this section will result in errors and will prevent your application from being accepted.

Additional Instructions for Research:

R25 applicants who are proposing to provide clinical trial research experience for their participants (i.e., participants will not be leading an independent clinical trial): Do not provide information in "Section 5 - Other Clinical Trial-related Attachments." Inputting information in this section will result in errors and will prevent your application from being accepted.

R36 applicants who are proposing to gain clinical trial research experience under a mentor's supervision (i.e., you will not be leading an independent clinical trial): Do not provide information in "Section 5 - Other Clinical Trial-related Attachments." Inputting information in this section will result in errors and will prevent your application from being accepted.

Additional Instructions for Career Development:

CDA applicants who are proposing to gain clinical trial research experience under a mentor's supervision (i.e., you will not be leading an independent clinical trial): Do not provide information in "Section 5 - Other Clinical Trial-related Attachments." Inputting information in this section will result in errors and will prevent your application from being accepted.

Additional Instructions for Training:

K12 and D43 applicants who are proposing to provide clinical trial research experience for their Scholars/Trainees (i.e., Scholars/Trainees will not be leading an independent clinical trial): At the time of your application, do not provide information in "Section 5 - Other Clinical Trial-related Attachments." Inputting information in this section will result in errors and will prevent your application from being accepted. Post-award, while you will be required to fill out Study Records, you must still not provide information in "Section 5 - Other Clinical Trial-related Attachments."

Additional Instructions for Fellowship:

Fellowship applicants proposing to gain clinical trial research experience under a sponsor's supervision (i.e., you will not be leading an independent clinical trial): Do not provide information in "Section 5 - Other Clinical Trial-related Attachments." Inputting information in this section will result in errors and will prevent your application from being accepted.

5.1 Other Clinical Trial-related Attachments

Format:

Attach this information as a PDF file. See NIH's Format Attachments page.

A maximum of 10 PDF attachments is allowed in the "Other Clinical Trial-related Attachments" section.

Content:

Provide additional trial-related information only if your FOA specifically requests it. Include only attachments requested in the FOA, and use requested filenames. If a specific filename is not given in the FOA, use a meaningful filename since it will become a bookmark in the assembled application image.


50 U.S. Code § 1881b - Certain acquisitions inside the United States targeting United States persons outside the United States

The Foreign Intelligence Surveillance Court shall have jurisdiction to review an application and to enter an order approving the targeting of a United States person reasonably believed to be located outside the United States to acquire foreign intelligence information, if the acquisition constitutes electronic surveillance or the acquisition of stored electronic communications or stored electronic data that requires an order under this chapter, and such acquisition is conducted within the United States.

If a United States person targeted under this subsection is reasonably believed to be located in the United States during the effective period of an order issued pursuant to subsection (c), an acquisition targeting such United States person under this section shall cease unless the targeted United States person is again reasonably believed to be located outside the United States while an order issued pursuant to subsection (c) is in effect. Nothing in this section shall be construed to limit the authority of the Government to seek an order or authorization under, or otherwise engage in any activity that is authorized under, any other subchapter of this chapter.

The Attorney General may require any other affidavit or certification from any other officer in connection with the application.

The judge may require the applicant to furnish such other information as may be necessary to make the findings required by subsection (c)(1).

In determining whether or not probable cause exists for purposes of paragraph (1)(B), a judge having jurisdiction under subsection (a)(1) may consider past activities of the target and facts and circumstances relating to current or future activities of the target. No United States person may be considered a foreign power, agent of a foreign power, or officer or employee of a foreign power solely upon the basis of activities protected by the first amendment to the Constitution of the United States.

Review by a judge having jurisdiction under subsection (a)(1) shall be limited to that required to make the findings described in paragraph (1).

If the judge determines that the facts submitted under subsection (b) are insufficient to establish probable cause under paragraph (1)(B), the judge shall enter an order so stating and provide a written statement for the record of the reasons for the determination. The Government may appeal an order under this subparagraph pursuant to subsection (f).

If the judge determines that the proposed minimization procedures referred to in paragraph (1)(C) do not meet the definition of minimization procedures under section 1801(h) or 1821(4) of this title, as appropriate, the judge shall enter an order so stating and provide a written statement for the record of the reasons for the determination. The Government may appeal an order under this subparagraph pursuant to subsection (f).

If the judge determines that an application pursuant to subsection (b) does not contain all of the required elements, or that the certification or certifications are clearly erroneous on the basis of the statement made under subsection (b)(1)(F)(v) and any other information furnished under subsection (b)(3), the judge shall enter an order so stating and provide a written statement for the record of the reasons for the determination. The Government may appeal an order under this subparagraph pursuant to subsection (f).

An order approved under this subsection shall be effective for a period not to exceed 90 days and such order may be renewed for additional 90-day periods upon submission of renewal applications meeting the requirements of subsection (b).

At or prior to the end of the period of time for which an acquisition is approved by an order or extension under this section, the judge may assess compliance with the minimization procedures referred to in paragraph (1)(C) by reviewing the circumstances under which information concerning United States persons was acquired, retained, or disseminated.

If the Attorney General authorizes an acquisition under paragraph (1), the Attorney General shall require that the minimization procedures referred to in subsection (c)(1)(C) for the issuance of a judicial order be followed.

In the absence of a judicial order approving an acquisition under paragraph (1), such acquisition shall terminate when the information sought is obtained, when the application for the order is denied, or after the expiration of 7 days from the time of authorization by the Attorney General, whichever is earliest.

If an application for approval submitted pursuant to paragraph (1) is denied, or in any other case where the acquisition is terminated and no order is issued approving the acquisition, no information obtained or evidence derived from such acquisition, except under circumstances in which the target of the acquisition is determined not to be a United States person, shall be received in evidence or otherwise disclosed in any trial, hearing, or other proceeding in or before any court, grand jury, department, office, agency, regulatory body, legislative committee, or other authority of the United States, a State, or political subdivision thereof, and no information concerning any United States person acquired from such acquisition shall subsequently be used or disclosed in any other manner by Federal officers or employees without the consent of such person, except with the approval of the Attorney General if the information indicates a threat of death or serious bodily harm to any person.

No cause of action shall lie in any court against any electronic communication service provider for providing any information, facilities, or assistance in accordance with an order or request for emergency assistance issued pursuant to subsection (c) or (d), respectively.

The Government may file a petition with the Foreign Intelligence Surveillance Court of Review for review of an order issued pursuant to subsection (c). The Court of Review shall have jurisdiction to consider such petition and shall provide a written statement for the record of the reasons for a decision under this paragraph.

The Government may file a petition for a writ of certiorari for review of a decision of the Court of Review issued under paragraph (1). The record for such review shall be transmitted under seal to the Supreme Court of the United States , which shall have jurisdiction to review such decision.

Except as provided in this section, nothing in this chapter shall be construed to require an application for a court order for an acquisition that is targeted in accordance with this section at a United States person reasonably believed to be located outside the United States.

Kneipe. L. 110–261, title IV, § 403(b)(1), July 10, 2008 , 122 Stat. 2474, as amended by Pub. L. 112–238, § 2(a)(1), Dec. 30, 2012 , 126 Stat. 1631 Pub. L. 115–118, title II, § 201(a)(1), Jan. 19, 2018 , 132 Stat. 19, provided that, except as provided in section 404 of Pub. L. 110–261, set out as a note under section 1801 of this title, effective Dec. 31, 2023 , this section is repealed.

This chapter, referred to in subsecs. (a), (d)(1), and (g), was in the original “this Act”, meaning Pub. L. 95–511, Oct. 25, 1978 , 92 Stat. 1783, which is classified principally to this chapter. For complete classification of this Act to the Code, see Short Title note set out under section 1801 of this title and Tables.

Kneipe. L. 110–261, title IV, § 403(b)(1), July 10, 2008 , 122 Stat. 2474, as amended by Pub. L. 112–238, § 2(a)(1), Dec. 30, 2012 , 126 Stat. 1631 Pub. L. 115–118, title II, § 201(a)(1), Jan. 19, 2018 , 132 Stat. 19, provided that, except as provided in section 404 of Pub. L. 110–261, set out as a Transition Procedures note under section 1801 of this title, the repeals made by section 403(b)(1) are effective Dec. 31, 2023 .


Einführung

Nonlinear optical (NLO) materials, which can halve the wavelength of light (or double the frequency) by second-harmonic generation (SHG) process, are of current interest and great importance in laser science and technology 1,2,3 . Over the past decades, continuous intensive studies 4,5,6,7,8,9,10,11 have resulted in the development of various commercial NLO materials, such as β-BaB2Ö4 (BBO) 12 , LiB3Ö5 (ref. 13), AgGaS2 (ref. 14) and ZnGeP2 (ref. 15), which are applicable for the generation of coherent light from ultraviolet region to infrared region. However, there is still lack of commercially available NLO materials for the generation of deep-ultraviolet (wavelength below 200 nm) coherent light, limited by the fundamental but conflicting requirements on the structure-directing optical properties 16 : a wide transparency window down to the deep-ultraviolet spectral region, a large SHG response and a sufficient birefringence to achieve phase matchability. Traditionally, the search for deep-ultraviolet NLO materials mainly focused on beryllium borate systems owing to their deep-ultraviolet transparency, thus leading to the discovery of a number of beryllium borates, such as KBe2BO3F2 (KBBF) 17,18 , SrBe2B2Ö7 (ref. 19), Na2CsBe6B5Ö15 (ref. 20), NaCaBe2B2Ö6F (ref. 21), Na3Sr3Sei3B3Ö9F4 (ref. 22), NaBeB3Ö6 and ABe2B3Ö7 (A=K, Rb) 23 . Nevertheless, till now KBBF is the sole material that can practically generate deep-ultraviolet coherent light by direct SHG process. In the structure of KBBF, the NLO-active [BO3] 3− groups in the [Be2BO3F2] layers are coplanar and aligned, giving rise to a relatively large SHG response and a sufficient birefringence for the generation of deep-ultraviolet coherent light. Unfortunately, KBBF suffers a strong layering tendency that originates from the weak F − –K + ionic interactions between the adjacent [Be2BO3F2] layers, which causes a great difficulty in the growth of thick crystals and thereby severely hinders the NLO performance of KBBF. Moreover, the containing beryllium can cause pneumonia-like symptoms and cancer if inhaled in this sense, KBBF is not environmentally friendly. Owing to these obstacles, the production of KBBF is still at the stage of laboratory. Therefore, it is urgently demanded to develop the next generation of deep-ultraviolet NLO materials that preserve the merits of KBBF while overcoming the demerits.

Here we report a beryllium-free borate, Li4Sr(BO3)2, whose structure features [SrBO3] layers bridged by NLO-active [BO3] 3− groups. The [SrBO3] layers afford [BO3] 3− groups arranged in a manner similar to that in the case of the [Be2BO3F2] layers in KBBF, conferring Li4Sr(BO3)2 the optical merits of KBBF. Furthermore, the NLO-active [BO3] 3− groups serving as layer connectors greatly mitigate the layering tendency and, simultaneously, help to enhance the SHG efficiency by more than half as compared with that of KBBF.


3.2: Minimization Applications

HPE will buy Zerto for $374 million and use its continuous data protection capabilities to bring disaster recovery, backup and .

Business continuity managers must be ready for anything, and that includes interviewing for the role. Here are some common .

A BCDR training program teaches employees key skills, such as how to conduct risk assessments, coordinate emergency response with.

Micron's $900 million deal to sell its Utah semiconductor factory to Texas Instruments will end the plant's 3D XPoint supplies .

Explore a group of Optane-ready products to improve storage performance. In addition, there are other options beyond self-managed.

Nvidia GPUDirect Storage's driver hit 1.0 status to enable direct memory access between GPU and storage and boost the performance.

Dell VxRail hardware and software updates improve performance and ease deployment and management, while enabling discrete compute.

The VMware vSAN storage update aims to help enterprises start with a small HCI deployment. Customers gain the option to connect .

SimpliVity has added integration with HPE Cloud Volumes Backup and HPE StoreOnce to enable easier backup at the edge, as well as .

Dell Technology's segment of Global Alliances partners stood out in the vendor's first-quarter channel sales more IT channel .

Cybersecurity industry standards can help MSPs mitigate internal security risks. Here are the benefits and challenges of adopting.

At its annual global partner conference, Microsoft will reveal its key priorities for the upcoming year. Read on for news and .


Schau das Video: Android aplikacije. Jet Car Stunts (September 2021).