Computational Commutative Algebra 1 – Lecture Notes ∑ ∑ ∑

Transcription

Computational Commutative Algebra 1 – Lecture Notes ∑ ∑ ∑
Computational Commutative Algebra 1 – Lecture
Notes
2004-04-20
• Einheiten sind nichts anderes als die Elemente, die invertierbar sind.
• Anmerkung zur Definition ‘irreduzibel’:
• Hier wird nur R\ {0} ∪ R × statt R\ ({0}) betrachtet, weil die Irreduziblität von Einheiten
(diese werden ja von der Definition ausgenommen) nicht interessiert.
• Betrachte den Polynomring R [x ] über den reellen Zahlen. Man will sagen, das
1
Polynome wie ‘ x + 1’ irreduzibel sind (Es gibt zwar die Zerlegung x + 1 = (2 x + 2) ,
2
1
aber ‘ ’ ist eine Einheit.), aber nicht, dass Polyome wie ‘2’ (also konstante
2
Polynome) irreduzibel sind.
• Ein Modul für einen Ring ist das Analogen zu einem Vektorraum zu einem Körper
(gleiche Axiome).
• Ein Ideal unterscheidet sich von einem Unterring darin, dass sogar R ⋅ I ⊆ I statt nur
I ⋅ I ⊆ I gefordert wird.
• Beispiel für ein Ideal, das kein Primideal ist:
• R = Z ; I = {4,8,12, } ; r = 12 ∈ I ; r = r1r2 = 2 ⋅ 6
• Es müsste folgen 2 ∈ I ∨ 6 ∈ I , stimmt aber nicht.
(
)
2004-04-27
• Eine R-Algebra S ist ein Ring, der zugleich R-Modul ist, wenn man als Skalarprodukt
R × S → S mit (r , s ) ϕ(r ) ⋅ s wählt.
• Eine R-Algebra S heißt ‘endlich erzeugt’, wenn es {s1, , s n }∈ S gibt, so dass die
Potenzprodukte s1α1
s nα n mit α i ≥ 0 S als R-Modul erzeugen.
• bedeutet: Jedes s ∈ S lässt sich als Linearkombination von verschiedenen s1α1
schreiben, also s =
i ≥1
λ i ⋅ s1α1. i
s nα n .i bzw. s =
i ≥1
c 1. i
c n.i ⋅ s1α1. i
snα n
s nα n .i .
• Bezug zur Realität: Oft betrachtet man Polynomringe, welche ja R-Algebren sind. Der
Polynomring wird ‘erzeugt’ durch die Potenzprodukte x1α1 x nα n mit α i ≥ 0 , weil sich
ja jedes Polynom schreiben lässt als p(x ) =
i ≥1
c 1. i
c n.i ⋅ x1α1. i
x nα n .i . Da es nun nach
der universellen Eigenschaft genau einen Ringhomomorphismus R [x1, , x n ] → S
(mit
u.
a.
der
Eigenschaft
ψ (x i ) = s i )
gibt,
entsprechen
sich
p (x ) =
i ≥1
c1.i
c n.i ⋅ x1α1. i
x nα n .i und s =
i ≥1
c 1. i
c n.i ⋅ s1α1. i
s nα n .i .
• Siehe auch Definition 1.1.13 im Buch.
• Bei ‘ S ≅ R [x1, , x n ] / I ’ steht nichts anderes, als dass das Bild (hier: S) isomorph zum
Page:
1
Ganzen (hier: R [x1, , x n ] ) ohne den Kern (hier: I) ist.
2004-04-29
• Spezielle Ringelemente im Polynomring:
• Einheiten: P × =
(i 1 ,
)
c (i 1 ,
, i n ∈Nn0
,i n )
⋅ x1i1
x1i n c(0,
,0 )
∈ R × ∧ alle anderen c(i1 ,
,i n )
nilpotent :
• siehe Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS
2004; 2004-05-06; 13-20’
• R Ring, r ∈ R : r Primelement
r irreduzibel:
• r prime: r r1r2
r r1 ∨ r r2
• r irreduzibel: r ≠ r1r2
• Angenommen, r prime und nicht r irreduzibel (also r reduzibel): r = r1r2 ∧ (r r1 ∨ r r2 )
da reduzibel
da prime
• r1 und r2 sind ‘kleiner’ als r, weil r ja das Produkt der beiden ist. Da r aber auch prime
ist, gilt aber auch r r1 ∨ r r2 . Also muss r1 oder r2 ‘größer’ als r sein (‘8’ kann nicht ‘6’
teilen, sondern frühestens ‘8’.). Dann muss aber r ‘gleich’ r1 xoder r2 sein (‘Größer’
als ‘8’ kann weder r1 noch r2 sein, denn 8 = r1r2 . Also muss r1 = 8 xor r2 = 8 und das
jeweils andere muss gleich 1 sein (‘1’ ist jedoch eine Einheit.). Bei Polynomen
bedeutet das, dass r1 xoder r2 den gleichen Grad wie r haben muss und das jeweils
andere eine Zahl sein muss (eigentlich auch immer eine Einheit).).
• Also ist r doch nicht reduzibel. Widerspruch.
• siehe Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS
2004; 2004-05-06; 12-20’
2004-05-25
• Die minimale Erzeugendenzahl von I = (x1, , x n ) ist
2
durch Nachdenken, dass
n (n + 1)
weil: Man überzeugt sich
2
x 1 x 1, x 1 x 2 , , x 1 x n , x 2 x 2 , x 2 x 3 , , x 2 x n , , x n x n
n Stück
n −1 Stück
ein minimales
1 Stück
Erzeugendensystem für I ist. Die Anzahl der Elemente ist die Summe der ersten n
n(n + 1)
natürlichen Zahlen. Nach Gauß ist das
.
2
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-05-25; 08-14’:
• M wird disjunkt zerlegt in homogene Komponenten vom Grad 0 und 1 – andere gibt
es nicht –, nämlich M = M 0 ⊕ M1 .
• Die Herleitung des minimalen Erzeugendensystems für M 0 dürfte klar sein.
• Für das minimale Erzeugendensystem für M 1 wird Nakayama’s Lemma verwendet.
Dazu wird von M zu M / P+ M übergegangen. Uns interessiert nur noch die homogene
Komponente vom Grad 1 von M (d. h. M 1 ). Also interessiert uns die homogene
Page:
2
Komponente vom Grad 1 von M / P+ M , also (M / P+ M )1 . Es gilt (siehe 1.7.9 im Buch):
(M / P+ M )1 = M1 / (P+ M )1 .
• (P+ M )1 sind Monome n vom Grad 1, die sich als Produkt von 2 Monomen schreiben
lassen ( n = pm ). Dazu muss deg(p ) = 0 ∧ deg(m ) = 1 ∨ deg(p ) = 1 ∧ deg(m ) = 0 sein.
Doch da p aus P+ kommt, hat p mindestens Grad 1 und somit bleibt nur noch
deg(p ) = 1 ∧ deg(m ) = 0 übrig. Dies entspricht also P1M 0 . Mit anderen Worten:
(P+ M )1 = P1M 0 .
• Insgesamt kriegt man also (M / P+ M )1 = M1 / P1M 0 .
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-05-25; 14-14.jpg’:
• Es gilt t ⋅ LT (f i ) = LT
~ LC (f )
hi +
t f i , denn:
LC (f i )
LC (f )
~ LC (f )
~
~
hi +
t fi = LT hi fi +
tfi = max LT hi fi , LT (tfi )
LC (fi )
LC (fi )
~
= max LT hi fi , t ⋅ LT (fi )
=
{ ( )
LT
{ ( )
}
( )
}
t ⋅ LT (fi )
~
weil LT (f ) > LT hi f i für alle f i , als ins Besondere für dieses f i mit t ⋅LT (f i )= LT (f )
=t ⋅LT ( fi )
2004-06-03
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-06-03; 03-29’:
• g 1 = yg~1 und g 2 = xg~2 , weil:
• g 1 x = −g 2 y
• Weil die rechte Seite durch x teilbar ist, muss es auch die linke sein.
• Weil y nicht durch x teilbar ist (klar), muss zwangsläufig g 2 durch x teilbar sein.
• Analoges gilt für y.
• also: g 1 = yg~1 und g 2 = xg~2
• g~1 = −g~2 , weil: g 1 x = −g 2 y ⇔ yg~1 x = − xg~2 y ⇔ g~1 = −g~2
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-06-03; 07-29’ und folgende:
• Für jedes feste Monom t ∈ T n muss der Koeffizient von t 0 ergeben, denn:
• Mulipliziere g 1t 1 + + g s t s = 0 vollkommen aus und fasse gleiche Terme wie
üblich zusammen, wodurch sich ihre Koeffzienten addieren.
• Mit t sind diese Terme gemeint.
• Da jeder Term t nur einmal in der sich ergebenden Summe aus Termen auftaucht,
kann er sich nicht mit einem anderen wegkürzen.
• Da die Summe immer noch 0 ergibt, muss vor allen Termen der Koeffizient 0
stehen.
• In der Darstellung g i = c ij m j sind mit m j die Terme in Supp(g i ) gemeint. Also
j
sind die m j -s von einem g i nicht die gleichen wie von einem anderen. Auch das j ist
bei jedem g i ein anderes.
Page:
3
• Es folgt ‘ c1 j1 m j1 t 1 +
• c 1 j1 m j1 t 1 +
+ c1 j s m j s t s = 0 ’, weil:
(
+ c 1 j s m j s t s = 0 ⇔ c 1 j1 +
=t
)
+ c 1 j s t = 0 ⇔ c 1 j1 +
+ c1 j s = 0
=t
• Letzteres wurde ja bereits festgestellt.
• Also ist auch c1 j1 m j1 , , c sj s m j s eine Syzygie von (t 1, , t s ) .
•
(m
j1
(
)
,−m j 2 ∈ Syz(t 1, t 2 ) ,
)
(
)
m j1 t 1 = m j 2 t 2 ⇔ m j1 t 1 + − m j 2 t 2 = 0
Syz(t 1, t 2 )
• Da
(
⇔
nach Definition
(m
j1
weil:
)
,−m j 2 ∈ Syz(t 1, t 2 )
=
siehe Tafelbild '
University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004- 06- 03; 05 - 29'
)
(
σ12 ,
)
muss nun m j1 ,−m j 2 ein Vielfaches von σ12 sein, also m j1 ,−m j 2 = hσ12 .
• c1 j1 h(t 12 ,−t 21,0, ,0) ist nichts anderes als (c1 j1 m j1 ,−c1 j1 m j 2 ,0, ,0 ) . Dies ist überhaupt
erstmal eine Syzygie von (t 1, , t n ) , weil:
c1 j1 m j1 t 1 − c1 j1 m j 2 t 2 + 0t 3 + + 0t s = 0
⇔ c 1 j1 m j1 t 1 − c 1 j1 m j 2 t 2 = 0
⇔ c 1 j1 m j1 t 1 = c 1 j1 m j 2 t 2
⇔ m j1 t 1 = m j 2 t 2
(Dies ist ja der Fall (siehe oben).)
• Subtrahiert man diese Syzygie ( (c1 j1 m j1 ,−c1 j1 m j 2 ,0, ,0 ) ) nun von der Syzygie
(
)
( c1 j1 m j1 , , c sjs m j s ), so erhält man eine neue (siehe Tafelbild ‘University;
Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-03; 02-29’)),
und zwar 0, (c 2 j 2 + c1 j1 )m j2 , c 3 j3 m j3 , , c sjs m js mit einem Koeffizienten ≠ 0 weniger.
(
)
(
• Führt man das Verfahren fort, so kommt man nach s Schritten von c1 j1 m j1 , , c sjs m j s
durch Subtraktion von anderen Syzygien auf (0, ,0 )
• also: c1 j1 m j1 , , c sjs m js − ( ) − − ( ) = (0, ,0 ) ⇔ c1 j1 m j1 , , c sjs m js = (
(
)
(
)
)+
+(
)
)
s Stück
• Da die ( ) alle Vielfache von mit 0-en auf die richtige Dimension gebrachte
Vielfache von σ ij , liegt c1 j1 m j1 , , c sjs m j s in dem Modul, der von (ebenfalls die
(
)
richtige Dimension gebrachten) σ ij -s erzeugt wird.
(
)
• Die ursprüngliche Syzygie (g 1, , g s ) ist Summe von c1 j1 m j1 , , c sjs m j s -s, denn die
g i -s sind ja g i =
(c
1 j1
)
c ij m j und weil zu jedem Term t in g 1t 1 +
j
+ g s t s eine Syzygie
m j1 , , c sj s m j s von (t 1, , t s ) gebildet wird, was dafür sorgt, dass auch jeder Term
m j jedes g i ’s genau einmal drankommt und somit:
(c
+ (c
m j1 , , c sj s m j s
)
)
+ c1 j1 m j1 , , c sj s m j s
)
1 j1
+
m j1 , , c sj s m j s
1 j1
(
= (g 1, , g s )
1
2
k
(k = Anzahl der (verschiedenen) Terme t in g 1t 1 +
+ gsts )
Page:
4
• Beispiel zur λ -Funktion (Definition siehe Tafelbild ‘University;
Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-03; 17-29’):
1
f1
λ
= λ f1
fs
•
= f1 ⋅ λ
1
0
0
0
+
+ fs
0
0
1
= ε1
= εs
1
= λ f1
0
Computational
0
+
+ λ fs
0
0
1
0
+
+ fs ⋅ λ
0
= f1v 1 +
0
+ fs v s
1
• daher: Kern(λ ) =
f1
f1
= 0 = Syz(v 1, ,v s )
λ
fs
fs
=f1v1 + + fsv s
n
• T e1, , er -Graduierung von P s (siehe Tafelbild ‘University;
Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-03; 20-29’):
0
0
v1
• deg
=
vs
∈P
0
t
i - te Stelle
0
v1
⇔
c1t 1
=
∀j : t j ⋅ LT
vs
csts
s
=
0
= tei
∈T n e1, ,er
g j .1
s
j =1
c jt jε j
g j .r
=g j
∈P r
Computational
0
= t j ⋅ LT (g j .k ) =
0
0
0
0
t
i - te Stelle
0
0
für ein 1≤ k ≤ r
(also falls k = i ist).
• v muss kein Mehrdimensionen-Term sein um einen Grad zu haben, darf aber auch
kein Vektor von beliebigen Polynomen sein, sondern nur ein Vektor, der in jeder
Komponente ( c i t i ) ein Monom (oder 0) stehen hat.
• Liften von Syzygien (vgl. Tafelbild ‘University; Computational Commutative Algebra 1
(Algebra 2); SS 2004; 2004-06-03; 28-29’):
• Syz(G ) wird berechnet wie folgt:
1. Berechne Syz(LM(G )) , was möglich ist, weil in LM(G ) ja nur Terme (mit
Koeffizienten) stehen. Also setzt sich Syz(LM(G )) aus den fundamentalen
Syzygien σ ij zusammen und lässt sich, wie auf den vorherigen Tafeln gezeigt,
berechnen.
2. Sei (f1, , f s ) ∈ Syz(LM(G )) . Berechne λ((f1, , fs )) .
3. Ist λ((f1, , f s )) = 0 , so ist nach Definition von λ (f1, , fs ) eine Syzygie von G.
4. Ist λ((f1, , f s )) ≠ 0 , so gibt es für λ((f1, , fs )) = f1g 1 + + f s g s eine Darstellung
Page:
5
h1g 1 + + hs g s , weil f1g 1 + + f s g s ∈ G und weil G ein Gröbner-Basis ist.
5. Dann ist
f1g 1 + + f s g s = h1g 1 + + hs g s
= λ ((f1, ,fs ))
⇔ f1g 1 +
= λ ((f1, ,fs ))
+ f s g s − h1g 1 +
+ hs g s = 0
⇔ (f1 − h1 )g 1 + + (f s − hs )g s = 0
Also ist ((f1 − h1 ), , (fs − hs )) eine Syzygie von G.
2004-06-08
• Hilbert’s Basissatz (Tafelbild ‘University; Computational Commutative Algebra 1
(Algebra 2); SS 2004; 2004-06-08; 10-18’):
• LC(I ) ist ein Ideal in R, weil:
• Seien a, b ∈ LC(I ) . Dann muss auch a + b auch in LC(I ) liegen.:
• Seien a = LC(fa ) und b = LC(f b ) für f a , f b ∈ I .
• Da I ein Ideal ist, darf man Elemente aus I mit Elementen aus R [x ]
multiplizieren und bleibt in I. Also sind LT (f b ) ⋅ f a ∈ I und LT (f a ) ⋅ f b ∈ I . (Warum
∈R [ x ]
∈R [ x ]
∈I
∈I
gerade diese Produkte? Diese beiden Produkte haben den gleichen Leitterm,
nämlich LT (fa ) ⋅ LT(f b ) .)
• Es
gilt
offensichtlich
LT (f b )
LC
⋅ fa = LC(fa ) = a
und
ist ja nur ein Term und daher LC (fb )=1
LT (fa )
LC
⋅ f b = LC(f b ) = b .
ist ja nur ein Term und daher LC (fb )=1
• Addiere nun LT (f b ) ⋅ f a + LT (fa ) ⋅ f b ∈ I . Da beide Summanden den gleichen
∈I
∈I
Leitterm haben (siehe oben), addieren sich ihre Leitkoeffizienten, also
LC(LT (f b ) ⋅ fa + LT (fa ) ⋅ f b ) = LC(LT (f b ) ⋅ f a ) + LC(LT (f a ) ⋅ f b ) = a + b .
• Also ist auch a + b in LC(I ) , denn a + b ist der Leitkoeffizient vom Element
LT (f b ) ⋅ fa + LT (fa ) ⋅ f b , welches in I liegt.
• Sei a ∈ LC(I ) . Dann muss auch r ⋅ a ∈ LC(I ) sein mit r ∈ R .:
• Sei a = LC(fa ) .
• Da I ein Ideal ist, darf man Elemente aus I mit Elementen aus R [x ]
r
⋅ fa ∈ I .
multiplizieren und bleibt in I. Also
∈R [ x ], weil ∈R
∈I
• Es gilt offensichtlich LC(r ⋅ fa ) = r ⋅ LC(fa ) = r ⋅ a .
• Also ist auch r ⋅ a in LC(I ) , denn r ⋅ a ist der Leitkoeffizient vom Element r ⋅ fa ,
welches in I liegt.
• Die LC I (i ) -s sind Ideale in R, weil:
• Seien a, b ∈ LC I (i ) . Dann muss auch a + b auch in LC I (i ) liegen.:
• Seien a = LC(fa ) und b = LC(fb ) mit deg fa = deg fb = i .
( )
( )
( )
Page:
6
• Da der Grad der beiden Polynome gleich ist und es nur eine Variable (x) gibt, ist
fa = ax i + und fb = bx i + .
• Dann
ist
aber
deg(fa + fb ) = deg ax i +
+ bx i +
=fa
( )
deg(fa + fb ) = i ,
auch
(
denn
)= i .
= deg (a + b )x i +
=fb
• Also ist auch a + b in LC I (i ) , denn a + b ist der Leitkoeffizient vom Element
fa + fb , welches Grad i hat.
( )
( )
• Sei a ∈ LC I (i ) . Dann muss auch r ⋅ a ∈ LC I (i ) sein mit r ∈ R .:
• Sei a = LC(fa ) mit deg fa = i , also f a = ax i + .
mit deg(r ⋅ fa ) = i
• Multipliziere fa mit r und erhalte r ⋅ fa = rax i +
LC(r ⋅ fa ) = r ⋅ LC(fa ) = r ⋅ a .
und
( )
• Also ist auch r ⋅ a in LC I (i ) , denn r ⋅ a ist der Leitkoeffizient vom Element r ⋅ fa ,
welches Grad i hat.
• Weil die LC I (i ) -s Ideale in R sind und R noetherian ist, sind auch die LC I (i ) -s
( )
( )
( )
noetherian. Somit werden sie endlich erzeugt: LC I (i ) = r1(i ) , , rs(ii )
• f j(i ) := r j(i ) x i +
{
}
, wobei 0 ≤ i ≤ k − 1 und 1 ≤ j ≤ s i (also r j(i ) ∈ r1(i ) , , rs(ii ) )
(k −1)
• Ergänzungen zum Beweis der Behauptung I = f1, , f s , f1
, ,f
k −1
sk −1
, , f1(0 ) , , f s(00 ) :
• Die u i -s ∈ R gibt es allgemein, weil f ∈ I und LC(I ) = r1, , rs , und nicht nur, weil
deg f ≥ k .
• Die
Bedingung
(
deg f ≥ k
deg f − deg f1
deg f − deg fs
)
wird
nur
benötigt,
damit
in
f − u1 x
f1 + + u s x
fs die Exponenten deg f − deg f i nicht negativ
werden können, denn der größte Grad der f i -s ist k (mit anderen Worten:
max{deg f i } = k ) (siehe Tafelfbild ‘University; Computational Commutative Algebra
1≤ i ≤ s
1 (Algebra 2); SS 2004; 2004-06-08; 12-18’).
f − u1 x deg f − deg f1 f1 + + u s x deg f −deg fs fs
(
)
∈I , da alle fi ∈I
=
•
nach Definition der fi
((
f − u1 x deg f −deg f1 r1 x deg f1 +
((
)+
+ u s rs x deg f +
f
− (u1r1 +
+ u s rs )x deg f +
= f − u1r1x deg f +
=
=LC (f ) x deg f +
• Ist
(
(
)+
(
+ u s x deg f −deg fs rs x deg fs +
))
=LC (f )
f − u1 x deg f −deg f1 f1 +
))
)
+ u s x deg f −deg fs fs = 0 ,
so
ist
∈I , da alle fi ∈I
f = u1x deg f −deg f1 f1 +
+ u s x deg f −deg fs fs und die Behauptung stimmt, da sich f als
Linearkombination der f1, , fs , f1(k −1) , , fskk −−11, , f1(0 ) , , fs(00 ) schreiben lässt.
• Ist
f − u1 x deg f − deg f1 f1 +
+ u s x deg f −deg fs fs ≠ 0 ,
so
ist
aber
Page:
wegen
7
(
)
+ u s x deg f −deg fs fs =
f − u1 x deg f − deg f1 f1 +
( (
deg f − deg f1
deg f − u1 x
f1 + + u s x
wieder vorne anfangen.
• Ist
so
deg f =: g < k ,
LC(f ) = u1 r1
(g ) (g )
deg f − deg fs
− (u1r1 +
f
=LC (f ) x
deg f
))
+
+ u s rs )x deg f +
=LC (f )
fs < deg f und man mit diesem Elemenent
( )
LC(f ) = LC I (g ) = r1(g ) , , rs(gg ) ,
ist
also
(g ) (g )
+
+ u sg rsg .
• Außerdem gibt es zu den r j(g ) -s passende Polynome, nämlich die f j(g ) -s mit
f j(g ) = r j(g ) x g +
• Bilde
.
nun
(
f − u1 x deg f − deg f1 f1 +
statt
f − u1 x
)
entsprechend
=g
=g
(g )
+ u s x deg f − deg fs fs
deg f − deg f1( g )
f1(g ) +
+ u s(g ) x
deg f − deg fs( g )
g
fs(gg )
und gehe analog zum Fall deg f ≥ k
∈I
vor, wodurch es wieder ein Polynom kleineren Grades gibt oder man die 0
erreicht.
• Erreicht man irgendwann die 0 (muss man zwangsläufig, weil die Grade ja von
Schritt zu Schritt immer kleiner werden), so hat man
f − u1 x deg f − deg f1 f1 + + u s x deg f −deg fs fs −
(
)
− u1(g ) x
deg f − deg f1( g )
f1(g ) +
+ u s(g ) x
(
deg f − deg f1( g )
g
fs(gg ) −
=0
)
+ u s x deg f − deg fs f s +
⇔ f = u1 x deg f −deg f1 f1 +
+ u1(g ) x
deg f − deg fs( g )
f1(g ) +
+ u s(g ) x
deg f − deg f ( g )
sg
fs(gg ) +
f1, , fs , f1(k −1), , fskk −−11, , f1(0 ), , fs(00 )
und hat somit f als Linearkombination der
dargestellt.
• Hilfssatz 1:
•
W
π′
W /U
Untermodul von (M / U )
Untermodul von M
π′
• π′ ist in der Tat bijektiv, wenn man es nicht mit π verwechselt, denn W W / U .
Kennt man nämlich W := W / U , so kann man W eindeutig angeben, nämlich
W =W +U .
• Beispiel zu ‘Normalform’:
• Wähle K [x ] als P r und das Ideal x 2 + x als M.
• Dann können in K [x ] / x 2 + x nur Polynome vom Typ c1 x 1 + c 0 x 0 (eigentlich
(
)
(
)
(
)
c1 x 1 + c 0 x 0 , weil die Elemente von K [x ] / x 2 + x ja eigentlich Restklassen sind)
liegen, wobei c i ∈ K .
• Also wird K [x ] / x 2 + x erzeugt durch x 1, x 0 . Da die Koeffizienten nur aus K
kommen, ist K [x ] / x 2 + x ein K-Vektorraum.
(
(
)
)
(
)
(
)
• Z. B. liegt x in der Restklasse − x , weil x 2 = 1⋅ x 2 + x + (− 1)x .
2
(
2
∈ x +x
)
(
K [x ] / x 2 + x
)
Page:
8
( )
• Da dieser Rest hier eindeutig ist, gilt: NF x 2 = − x .
• NF 2 = NF , weil: NF 2 x 2 = NF NF x 2 = NF(− x ) = − x = NF x 2
• NF M = 0 , weil: Elemente aus M sind in 0 und haben damit keinen Rest, also
( )
( ( ))
( )
NF M = 0 .
• NF B
K
= id B , weil: Elemente aus
K
B
K
gerade die Reste sind und sich daher
modulo M nicht mehr verändern.
• Ergänzung zu ‘reduzierte Gröbner-Basis’:
• g~i := LT (g 1 ) − c i .b b ∈ M , weil:
b∈B
=NF (LT (g1 ))
• Für jedes (Multidimensionen-)Polynom p gilt: p =
m
M - Anteil von p
• Also p − NF(p ) = m ∈ M .
• eigentlich sowieso klar,
+ NF(p ) .
'
Divisionsrest'
7 mod 4 = 3 ⇔ 7 =
denn:
=ˆ NF (7 )
=ˆ p
1⋅ 4
+3,
also
=ˆ M - Anteil von p
7 − 3 = 1⋅ 4 ∈ M .
~
• ‘ g i := LT (g 1 ) ’ reicht nicht, denn dann gilt zwar LT (g~1 ), ,LT (g~t ) = LT(M ) , aber nicht
g~ ∈ M , was aber auch benötigt wird, damit man sagen kann, dass g~ , , g~ = M .
i
1
t
2004-06-15
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-06-15; 02-12’:
• w − (r1w 1 + + rl w l ) ∈ U , weil:
• (r1w 1 + + rl w l )
ist
Representant
von
w
in
M /U
(wegen
(
)
(
)
π w = r1w 1 + + rl w l + U ), liegt also in modulo U in derselben Restklasse wie w.
• Wenn 2 Elemente in derselben Restklasse liegen, bedeutet dass, ihre Differenz in
U liegt.
• w − (r1w 1 + + rl w l ) ∈ W ∩ U , weil:
• w − (r1w 1 + + rl w l ) ∈ U (siehe gerade eben)
• w − (r1w 1 +
+ rl w l ) ∈ W , weil w − r1w 1 +
∈W
∈W
∈W
∈W
+ rl w l
∈W
∈W
∈W
∈W
• Ergänzung zum Korollar auf Tafelbild ‘University; Computational Commutative Algebra
1 (Algebra 2); SS 2004; 2004-06-15; 03-12’:
• R k ist noetherian, falls r noetherian ist, weil:
• Wähle im Hilfsatz von eben M := R k , U := R k −1 und somit M / U = R k / R k −1 = R .
• Dann ist (nach Induktion) U = R k −1 noetherian und nach Voraussetzung M / U = R
noetherian.
• Laut Hilfssatz ist dann M = R k noetherian.
• Ergänzung zum Satz auf Tafelbild ‘University; Computational Commutative Algebra 1
Page:
9
(Algebra 2); SS 2004; 2004-06-15; 03-12’:
• Gerade gezeigt: R k ist noetherian.
• Außerdem ist U := ker (ϕ) ein Untermodul von R k .
• Wähle also im Hilfssatz 2 auf Tafelbild ‘University; Computational Commutative
Algebra 1 (Algebra 2); SS 2004; 2004-06-08; 15-18’ das dortige M als R k und U als
ker (ϕ) .
• Erhalte, dass R k / ker (ϕ) noetherian ist.
• Nun ist aber das M aus dem Satz auf Tafelbild ‘University; Computational
Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-15; 03-12’ isomorph zu
R k / ker (ϕ) , also auch noetherian.
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-06-15; 11-12’:
• LT (g~i ) = LT (g i ) , weil:
• g~i := LT g i −
b∈B
∈M
c b(i )b
∈B
∈LT {M }
• Da aber auch g~i ∈ M , ist LT (g~i ) ∈ LT{M }.
• Da aber LT{M } disjunkt mit B und g~i nur einen Term in LT{M } hat (alle anderen
sind in B), so muss dieser Term der Leitterm von g~i sein.
• Dieser Term ist LT (g i ) .
• Mit anderen Worten: LT (g~i ) = LT (g i ) .
2004-06-17
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-06-17; 07-24’: Mit ‘ ’ ist das gemeint, was bisher B hieß, nämlich
Π n \ LT{M } bzw. Π n \ LT{I }.
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-06-17; 11-24’:
• τ ij := σ ij − (h1, , hs ) ∈ Syz (f1, , f s ) , weil:
S(f i , f j ) =
⇔
s
k =1
hk f k
S(f i , f j )
nach Definition = λ (σ ij )
s
−
k =1
hk f k
=0
nach Definition von λ gleich λ (h1, ,hs )
⇔ λ(σ ij ) − λ(h1, , hs ) = 0
⇔ λ σ ij − (h1, , hs ) = 0
=:τ ij
⇔ λ(τ ij ) = 0
⇔
λ ist gerade so definiert worden
τ ij ∈ Syz (f1, , fs )
Page:
10
• LF(τ ij ) = σ ij , wegen: LT (hi f i ) ≤ LT S(f i , f j ) bzw. LT S(f i , f j ) = max (LT (hi f i )) .
= λ (σ ij )
1≤ i ≤ s
= λ (σ ij )
• Ergänzung zu Buchberger’s Algorithmus (Tafelbild ‘University; Computational
Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-17; 12-24’ und folgende):
• Eine Frage, die man sich stellen könnte, ist, wo der Sinn darin liegt, Sij′ im Fall
S ij′ ≠ 0 dem bisherigen Erzeugendensystem G = (g 1, , g s ) von I hinzuzufügen
(Schritt 4).
• Dazu erinnere man sich an folgende Charakterisierung eine Gröbner-Basis: G ist
eine Gröbner-Basis ⇔ LT
= (LT (g 1 ), ,LT (g s )) .
I
oder allgemein M
• Ist
nun
S ij′ =
NR
G
hier noch = ( g 1 , ,g s
∈I , denn NRG (m )= m −
∈I
s
i =1
S (g i , g j )
)
≠ 0,
so
ist,
weil
der
∈I
pi g i für alle m∈I mit bestimmten Polynomen pi
∈I
∈I
∈I
Divisionsalgorithmus hier gestoppt hat, LT (S ij′ ) durch kein LT (g i ) mehr teilbar.
• Mit anderen Worten: LT (S ij′ ) ist kein Vielfaches eines LT(g i ) mehr.
• Mit anderen Worten: LT Sij′ ∉ (LT (g 1 ), ,LT (g s )) .
∈I
∈LT {I }
• Also ist LT{I } ≠ (LT(g 1 ), ,LT(g s )) und damit G keine Gröbner-Basis.
• Fügt man nun g s′ := S ij′ dem bisherigen G hinzu, so erzwingt man gerade, dass dann
LT (S ij′ ) ∈ (LT (g 1 ), ,LT (g s ),LT (g s′ )) , denn es ist ja gerade LT (S ij′ ) = LT (g s′ ) , weil ja
g s′ := S ij′ .
• Dann besteht die Chance, dass jetzt LT{I } = (LT (g 1 ), ,LT (g s ),LT(g s′ )) und somit G
eine Gröbner-Basis für I ist.
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-06-17; 23-24’:
• Wie kommt man auf die angeschriebene, hinzuzufügende Spalte?
• Man möchte am Ende eine Matrix A haben, so dass G = FA . (Beachte: G und F sind
Zeilenvektoren. G =
(g1, , g s′ )
und F =
(f1, , fs )
.)
bisher berechnete Gröbner -Basis
• Zu
Anfang
ist
(g1,
1
(g1,
, g s′ ) = (f1, , fs )
, g s′ ) = (f1, , f s )
0
(also
auch
s ′ = s ),
also
0
0
0
0
ursprüngliches Erzeugendensystem
0
.
1
Einheitsmatrix I s (mit s Zeilen und s′ Spalten)
• Diese Gleichheit soll nach jedem Iterationsschritt des Algorithmus wiederhergestellt
werden. Da einerseits in jedem Iterationsschritt ein p zu G hinzukommt, muss die
Page:
11
bisherige Matrix A angepasst werden.
• Da
p = S (g i , g j ) − q1g 1 − − q s′ g s′
=
(siehe
vorheriges
Tafelbild)
und
1
1
t ij g i − t ji g j
ci
cj
g i = (f1, , fs )
ai
(für
alle
gi )
gilt,
ist
i - te Spalte der Matrix
p = (f1, , f s )
1
1
t ij ai − t ji a j − q1a1 −
ci
cj
− q s ′ as ′ .
Dies ist ein Spaltenvektor der Länge s .
• Hängt man diesen Spaltenvektor an A an, so erhält man gerade:
(g1, , g s′ , p )
=G
= (f1, , fs )
=F
1
0
0
0
0
0
0
1
as +1
1
1
t ij ai − t ji a j − q1a1 −
ci
cj
as ′
bisher hinzugefügte
Spaltenvektoren
− q s ′ as ′
neuer Spaltenvektor für p
Einheitsmatrix I s
vom Anfang
bisherige Matrix A
neue Matrix A
• Also
1
1
t ij ai − t ji a j − q1a1 −
ci
cj
− qs′as′ .
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-06-17; 24-24’:
b1.i
• hi = (g 1, , g s′ )
bs′.i
• Wie fährt man nun fort, wenn man die Matrix B hat?
c1
d1
• Ziel ist es ja, h = (h1, , ht )
als h = (f1, , f s )
H
ct
ds
auszudrücken. d. h. man will
d1
kennen.
dt
• Nun gilt: H = GB = FAB .
=G
Page:
12
• also: h = (h1, , ht )
H
c1
c1
= (f1, , f s ) A B
ct
F
s×s′ s′×t
ct
s×1
d1
=:
ds
2004-06-22
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-06-22; 01-18’:
• In dieser Definition fällt ein wesentlicher Teil nicht auf, nämlich, dass die g i -s aus
M sein müssen.
• Die Definition im Buch (Definition 2.4.2) ist natürlicher.
• Ergänzung zu Bemerkung 2 auf Tafelbild ‘University; Computational Commutative
Algebra 1 (Algebra 2); SS 2004; 2004-06-22; 02-18’:
• Je nachdem, welche Definition für ‘Gröbner-Basis’ man benutzt ist entweder nichts
zu zeigen (Definition aus dem Buch) oder es ist was zu beweisen (Definition auf
Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004;
2004-06-22; 01-18’). Im letzteren Fall Fall ist der Beweis ab Tafelbild ‘University;
Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-06-08; 07-18’ zu
finden.
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-06-22; 03-18’:
• v ′ − v ′′ ∈ M , weil v ′ − v ′′ = v − v ′′ − v − v ′ .
∈M
∈M
∈M
• “Insbesondere gilt v ′ − v ′′ = 0 oder ...”: Hier wird eine Fallunterscheidung gemacht. 1.
Fall: v ′ − v ′′ = 0 , daher ohne Leitterm, weil kein Grad. Dann gilt offensichlich v ′ = v ′′ .
2. Fall: Es gibt einen Grad, somit einen Leitterm. Dieser ist dann in LT (M ) , weil
v ′ − v ′′ ∈ M .
• Beispiel zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS
2004; 2004-06-22; 16-18’:
• Sei f (x1 x 2 ) := x12 + x1 x 2 − x 2 − 1.
• Dann ist deg(f ) = 2 .
• Dann ist:
= deg ( f
f
hom
x0
, x 1, x 2 = x 0
neue Variable
2
)
x x
⋅ f 1 , 2 = x 02 ⋅
x0 x0
x1
x0
2
+
x1
x0
x2
x
− 2 −1
x0
x0
= x + x1 x 2 − x 0 x 2 − x 02
2
1
hom
• In f
hat jeder Term Grad 2, also ist f hom homogen vom Grad 2.
• Das kommt dadurch, weil f hom sich aus f ergibt, indem diejenigen Terme, die in f
einen zu kleinen Grad haben mit einer zusätzlichen Variable ( x 0 ) aufgefüllt werden,
bis sie denselben Grad haben, wie die Terme, die den größten Grad haben, also
deg(f ) .
Page:
13
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-06-22; 18-18’:
LCM(t i , t j , t k )
LCM(t i , t j , t k )
LCM(t i , t j , t k )
• Wenn
= 1 ist, so ist σ ik =
σ ij +
σ jK .
t ik
t ij
t jK
• Dann aber ist σ ik im Erzeugendensystem von Syz(LM(G )) (welcher ja auf jeden Fall
von der Menge aller σ ij erzeigt wird) überflüssig.
2004-06-24
• Ergänzungen zum Beispiel auf Tafelbild ‘University; Computational Commutative
Algebra 1 (Algebra 2); SS 2004; 2004-06-22; 05-18’:
• Die eigentlich Aussage des Beispiels ist, dass, wenn man I als Gröbner-Basis
gegeben hat, man sofort sehen kann, ob P = I und damit , ob Z(I ) = { }, nämlich
genau dann, wenn in der Gröbner-Basis eine Kostante steht.
• NF(1) = 0 ⇔ In der Gröbner-Basis gibt es eine Konstante, weil:
• Der Leitterm von 1 lässt sich unter der Voraussetzung NF(1) = 0 durch ein g i aus
der Gröbner-Basis teilen.
• Dazu muss der Leitterm von g i aber kleiner oder gleich dem von 1 sein.
• Da es nicht echt kleiner geht, bleibt nur gleich.
• Da nur Konstanten den Grad 0 haben, ist g i also eine Kosntante.
• Da man durch g i teilen kann, ist g i nicht 0.
2004-06-29
• Ergänzung zur Bemerkung auf Tafelbild ‘University; Computational Commutative
Algebra 1 (Algebra 2); SS 2004; 2004-06-29; 08-10’:
• I ⊆ I , weil I = f f i ∈ I ⊇ f f 1 ∈ I = I
( )
a ∈ Z( I )
{
• Z(I ) ⊇ Z I , weil:
•
} {
}
f (a ) = 0∀g ∈ I
• Da I ⊆ I , gilt insbesondere f (a ) = 0∀f ∈ I .
• Dann aber ist a ∈ Z(I ) .
( )
• Also a ∈ Z I
a ∈ Z(I ) .
( )
• Das ist genau dann der Fall, wenn Z(I ) ⊇ Z I (einfache Mengentheorie).
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-06-29; 10-10’:
Page:
14
Z(I ∩ J ) = Z(I ) ∪ Z(J )
⇔ {a h(a ) = 0∀h ∈ I ∩ J } = {a f (a ) = 0∀f ∈ I }∪ {a g (a ) = 0∀g ∈ J }
• ⇔ {a h(a ) = 0∀h ∈ I ∩ J } = {a f (a ) = 0∀f ∈ I ∨ g (a ) = 0∀g ∈ J }
⇔ h(a ) = 0∀h ∈ I ∩ J
⇔
' 'entspricht ⊆
'
⇐ 'entspricht ⊇
f (a ) = 0∀f ∈ I ∨ g (a ) = 0∀g ∈ J
⇔ (∃h ∈ I ∩ J : h(a ) ≠ 0 ⇔ ∃f ∈ I : f (a ) ≠ 0 ∧ ∃g ∈ J : g (a ) ≠ 0 )
• ‘ ’:
• Wähle das existierende h ∈ I ∩ J , so dass h(a ) ≠ 0 .
• Da h ∈ I ∩ J , ist h ∈ I und h ∈ J .
• Wähle das zu findende f := h und das zu findende g := h .
• Dann gilt f (a ) ≠ 0 ∧ g (a ) ≠ 0 .
• ‘ ⇐ ’:
• Wähle die existierenden f ∈ I und g ∈ J mit : f (a ) ≠ 0 ∧ g (a ) ≠ 0 .
• Dann ist h := fg ∈ I ∩ J , denn fg ∈ I , weil f ∈ I , und fg ∈ J , weil g ∈ J .
• Dann ist h(a ) = f (a ) ⋅ g (a ) ≠ 0 .
≠0
≠0
2004-07-01
• Ab Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004;
2004-07-01; 03-18’ ist das Liften von Syzygien sehr schön erklärt.
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-01; 08-18’ und ‘University; Computational Commutative Algebra 1
(Algebra 2); SS 2004; 2004-07-01; 09-18’:
• Bisher ist nur bekannt, wie man Sysygien für Gröbner-Basen berechnet, nicht aber
für beliebige Erzeugendensystem.
• Daher wird das beliebige Erzeugendensystem zunächst in eine Gröbner-Basis
konvertiert und dafür Syz(G ) berechnet (Schritt 3).
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-01; 14-18’:
h1
in M gibt mit hi ∈ K \ {0}
• Man kann f i weglassen, wenn es einen Spaltenvektor
hs
(also eine hi = const ), denn:
• Die Spaltenvektoren von M erzeugen nach Definition den Syzygienmodul von
(f1, , fs ) .
• Insbesondere ist jeder Spaltenvektoren von M selbst eine Syzygie von (f1, , fs ) .
• Also (f1, , f s )
h1
= f1h1 +
+ fs hs = 0 .
hs
• Ist ein hi = const , so gilt:
Page:
15
f1h1 +
+ f s hs = 0
⇔ f1h1 +
+ f i −1hi −1 + f i +1hi +1 +
+ f s hs = −f i hi
=const
h
h1
h
h
+ + f i −1 i −1 + f i +1 i +1 + + fs s
− hi
− hi
− hi
− hi
• Also lässt sich f i durch die übrigen f j -s ausdrücken und kann demnach im
⇔ f i = f1
Erzeugendensystem von weggelassen werden.
• Man kann f i genau dann weglassen, wenn die i-te Zeile von M das Ideal (1) erzeugt,
denn:
• Zeige hier eigentlich nur die Rückrichtung, aber die Hinrichtung wird einem klar,
wenn man die Rückrichtung verstanden hat.
• Wenn die i-te Zeile von M das Ideal (1) erzeugt, dann gibt es p1, , p u
, so
Breite der Matrix
dass 1 = p1
+
h1.i
+
i - tes Element des 1. Spaltenvektors
.
pu hu.i
- tes Element des u - ten Spaltenvektors
• Ziel ist es nun, M eine neue Spalte hinzufügen zu können, in der an der i-ten Stelle
eine Konstante steht.
• Da in M nur Syzygien stehen dürfen, muss diese neue Spalte eine Syzygie sein.
• Man darf beliebige Syzygien M hinzufügen, denn M soll ja ein Erzeugendensystem
des Syzygienmoduls sein und einem Erzeugendensystem darf man beliebige
Elemente des Moduls hinzufügen, ohne dass die Eigentschaft ‘erzeugend’
verloren geht.
• Da man eine Spalte mit einer Konstanten an der i-ten Position haben will und
1 = p1h1.i + + pu hu.i , ist es nahe liegend, die neue Spalte so zu bilden:
h1.1
+
p1
p1h1.1 +
hu.1
+ pu
h1.s
+ pu hu .1
=
.
p1h1.s +
hu.s
+ pu hu .s
• Dass diese neue Spalte auch wirklich eine Syzygie von f1, , fs ist, sieht man
eigentlich schon daran, dass sie im Erzeugnis der alten Spalten liegt. Es lässt sich
aber auch leicht direkt nachrechnen:
p1h1.1 + + pu hu.1
(f1, , fs )
p1h1.s + + pu hu.s
= f1 (p1h1.1 +
+ pu hu.1 ) +
+ fs (p1h1.s +
= f1p1h1.1 +
+ f1 pu hu.1 +
+ f s p1h1.s +
+ fs pu hu.s
= f1p1h1.1 +
+ f s p1h1.s +
+ f1pu hu.1 +
+ fs pu hu.s
h1.1
= 0, weil
Syzygie ist
h1.s
=0
+ pu hu.s )
hu.1
=0, weil
Syzygie ist
hu.s
=0
• In der i-ten Zeile dieser Spalte steht nun p1h1.i +
+ pu hu.i = 1 und mit der
Überlegung von vorhin folgt, dass man f i weglassen kann.
2004-07-06
Page:
16
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-06; 13-16’:
• I ∩ J = (lcm(f , g )) , weil: I ∩ J = h ∈ P h = a f = b g . Dies ist die Menge aller
∈P
∈P
gemeinsamen Vielfachen. Die muss logischer Weise durch das kleinste gemeinsame
Vielfache erzeugt werden.
2004-07-08
• Ergänzungen zu Tafelbildern ‘University; Computational Commutative Algebra 1
(Algebra 2); SS 2004; 2004-07-08; 02-18’ bis ‘University; Computational Commutative
Algebra 1 (Algebra 2); SS 2004; 2004-07-08; 04-18’:
~
~
• Der zentrale Punkt ist der Ansatz I = J ∩ J . Wüsste man, wie J aussieht, so hätte
~
man das gesuchte Z (I ) , denn Z (I ) = Z (J ) ∪ Z J . Im Folgenden wird herausgefunden,
~
dass es sich bei J um I : J handelt.
~
~
• J ⋅ J ⊆ J ∩ J , weil:
~ ~
~
~
• Sei J = ( j 1, , j r ) , J = j 1, , j s und jˆ ∈ J ⋅ J .
~
~
~
~
• Dann ist jˆ = p1.1 j 1 j 1 + + p1.s j 1 j s + + pr .1 j r j 1 + + pr .s j r j s .
~
~
~
~
• Es gilt ˆj ∈ J , weil ˆj = p1.1 j 1 j 1 + + p1.s j s j 1 + + pr .1 j 1 j r + + pr .s j s j r .
()
(
)
(
)
(
∈P
~
~
• Es gilt ˆj ∈ J , weil ˆj = (p1.1 j 1 ) j 1 +
∈P
)
(
∈P
~
+ (p1.s j 1 ) j s +
)
(
∈P
~
+ (pr .1 j r ) j 1 +
)
∈P
~
+ (pr .s j r ) j s .
∈P
∈P
∈P
~
~
~
• Also jˆ ∈ J ∩ J und somit J ⋅ J ⊆ J ∩ J .
• I = J ∩ (I : J ) , weil:
• ‘ ⊆ ’:
• I ⊆ J (siehe Tafelbild ‘University; Computational Commutative Algebra 1
(Algebra 2); SS 2004; 2004-07-08; 02-18’).
• I ⊆ I : J , denn I : J := {h ∈ P hJ ⊆ I } und h ∈ I ist auch Element von
{h ∈ P hJ ⊆ I}, denn für ein h ∈ I und ein
j ∈ J ist auf Grund der Definition ‘Ideal’
auch hj ∈ I , also hJ ⊆ I .
• Also I ⊆ J ∩ (I : J ) .
• '⊇ ’:
~
~
~
~
• Sei h ∈ J ∩ (I : J ) , also h ∈ J und h ∈ I : J ⇔ h J ⊆ I .
~
~
~~
• Weil h ∈ J und h J ⊆ I , ist h h ∈ I .
∈J
~
• Also h 2 ∈ I .
• Weil I ein Radikalideal ist, gilt I = I . ( I := h ∈ P h i ∈ I )
~
~
• Da h 2 ∈ I , ist h ∈ I .
~
~
• Weil h ∈ I und I = I , ist h ∈ I .
• Ergänzung zu Tafelild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-08; 05-18’:
• “Für h ∈ P muss ...”: Bessere Formulierung: “Für h ∈ I : (g ) muss ..., weil
{
}
Page:
17
h ∈ I : (g ) ⇔ h(g ) ⊆ I
hg ∈ I ⇔ ∃ai : hg = a1f1 + + as fs .
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-08; 06-18’:
• I : (g ) = (c1.0 , , c r .0 ) , weil die c i .0 -s in Syz(g, f1, , fs ) zu g gehören, so dass
c i .0 g = (− c i .1 )f1 + + (− c i .s )fs
• Hat man für alle g 1, , g t das zugehörige I : (g i ) = c1.0 , , c ri .0
(
(
t
t
i =1
i =1
)
i
berechnet, so gilt
)
I : J = ∩ I : (g i ) = ∩ c1.0 , , c ri .0 i .
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-08; 11-18’:
M : (w i )
•
= erste Komponente n der Elemente des Erzeugende nsystems von Syz(w i ,v 1, ,v s )
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-08; 13-18’:
• Ann P (M ) = U : P r , weil:
• Da M ≅ P r / U , kann man die Elemente aus M als Restklassen betrachten, also
p ∈ M für p ∈ P r .
• Dann
ist
r
r
r
Ann P (M ) = f ∈ P fp = 0 ∀p ∈ M = f ∈ P fp ∈ U∀p ∈ P = f ∈ P fP ⊆ U = U : P .
{
} {
} {
} {
}
}
• I ⊆ Ann P M , weil:
=P / I
•
{
Ann P (M ) = f ∈ P fp = 0 ∀p ∈ M = f ∈ P fp = 0 ∀p ∈ M = {f ∈ P fp ∈ I∀p ∈ M }
= {f ∈ P fp ∈ I∀p ∈ P }
• Die letzte Gleichheit gilt, weil man zu jedem p ∈ P ein p ∈ M bilden kann und
man, wenn man mit den p-s ganz P durchläuft, damit dann auch alle p ∈ M
erreicht.
• Zu zeigen ist also, dass ein i ∈ I auch in Ann P (M ) = {f ∈ P fp ∈ I∀p ∈ P } liegt.
• Sei also i ∈ I . Dann ist ip ∈ I∀p ∈ P , weil IP ⊆ I , weil I ein Ideal ist.
• Also ist i auch in {f ∈ P fp ∈ I∀p ∈ P } = Ann P (M ) .
• Beachte: Ann P (M ) ist ein Ideal. Denn:
• Zu zeigen: P ⋅ Ann P (M ) ⊆ Ann P (M ) .
• Seien
p ∈P
und
f ∈ Ann P (M ) .
Dann
ist
pf ∈ Ann P (M ) ,
weil
(pf )M = p(fM ) = p ⋅ 0 = 0 .
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-08; 14-18’:
• Der Unterschied zwischen ‘Colon-Ideal’ und ‘Colon-Modul ist:
• Colon-Ideal: M : N =
Modul
f ∈ P fN ⊆ M
f ist Polynom
Colon-Ideal
• Colon-Modul: M : I
Ideal
=
f ∈Pr
fI ⊆ M
f ist Vektor aus Polynomen
Colon-Modul
Page:
18
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-08; 15-18’:
• Gesucht sind alle w ∈ P r , so dass wf ∈ M∀f ∈ I , also alle w ∈ P r , so dass es eine
Darstellung wf = h1v 1 + + hs v s gibt.
• wf = h1v 1 +
f ⋅P r
+ hs v s ∈ f ⋅ P r ∩ M
∈M
• Jedes u j ist von der Form u j = fw j , weil u j ∈ f ⋅ P r .
t
• M : I ist dann M : I = ∩ M : (f ) = ∩ M : (f i )
f ∈I
i =1
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-08; 16-18’:
• Nichtnullteiler-Probe: f ∈ P ist NNT für M ⇔ 0 : (f ) = 0 , weil:
{
( )} {
}
• 0 : (f ) = m ∈ M m(f ) ⊆ 0 = m ∈ M m(f ) = 0
M
M
{}
• ‘ ’:
• Da f NNT, gilt nur für m = 0 fm = 0 .
• Somit ist m ∈ M m(f ) = 0 = 0
{
} {}
• ‘ ⇐ ’:
• Wenn m ∈ M m(f ) = 0 = 0 , dann ist nur für m = 0 fm = 0 .
{
} {}
• Somit ist f NNT von M.
2004-07-13
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-13; 03-20’:
~
• ker (ϕ) soll im 1. Fall als U / U gegeben werden. Die Definitionsmenge von ϕ ist
~
P r / U . Also ist U ⊆ P r .
• Analoges gilt bei im(ϕ)
• Unter ‘3’ ist das Urbild einer vorgegebenen Menge gesucht.
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-13; 04-20’:
•
u~ ∈ P r ϕ (u~ + U ) = 0
r
∈P / U
∈P s / V
{
= u~ ∈ P r Φ (u~) ∈ V
}
• Die w i -s sind die von Tafelbild ‘University; Computational Commutative Algebra 1
(Algebra 2); SS 2004; 2004-07-13; 02-20’. Daher auch die Beziehung zwischen Φ
und ϕ .
• Φ (u~) = Φ(f1e1 + + f r er ) = Φ (f1e1 ) + + Φ(f r er ) = f1Φ (e1 ) + + f r Φ (er ) = f1w 1 + + f r w r .
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-13; 06-20’:
~
• V = w 1, ,w r ,v 1, ,v β , weil:
Page:
19
• im(ϕ) =
w1 , , w r
= ϕ (e1 +U )
= ϕ (er +U )
~
~
und im(ϕ) = V / V = V / v 1, ,v β
~
• also: V = im(ϕ) + V = w 1, ,w r + v 1, ,v β = w 1, ,w r ,v 1, ,v β
• Ergäzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-13; 07-20’:
~
~
• Gesucht ist U / U := ϕ −1 V / V . Da U ja schon bekannt ist, ist also nur noch das
~
U ⊆ P r gesucht.
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-13; 09-20’:
• Die Frage ist, auf was man die ei ∈ P t mit Hilfe von ψ abbilden soll, damit ϕ ψ = ψ
ist, bei gegebenen ϕ und ψ .
• Mit ψ (ei ) = (f i .1, , f i .r ) + U ist ψ (ei ) = (f i .1e1 + ,+f i .r er ) + U gemeint, also die
Linearzerlegung des Bildes.
• Es soll also sein ϕ(ψ (ei )) = ψ (ei ) ⇔ ϕ((f i .1e1 + ,+f i .r er ) + U ) = ψ(ei ) und gesucht sind
also die passenden fi . j -s.
(
)
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-13; 10-20’:
~
• Das B = w 1, ,w r ,v 1, ,v β ⊆ P s ist das V von Tafelbild ‘University; Computational
Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 06-20’.
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-13; 12-20’:
• Hom (A, f ) :
A
g
f g
M
N
f
• Hom(f , A ) :
A
g f
g
M
N
f
• Ergänzungen zur universelen Eigenschaft (Tafelbilder ‘University; Computational
Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 16-20’ bis ‘University;
Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-07-13; 18-20’):
N′
ψ ′2
′
′
λ = ψ1 ⊕ ψ 2
ψ2
N
M2
ψ ′1
ψ1
ϕ2
M1
ϕ1
M3
Page:
20
2004-07-15
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-15; 01-14’:
• Ein Eliminations-Ideal ist nichts anderes als das Teilideal von I, das nur die Polyome
aus I enthält, in denen die Variablen x i aus P nicht vorkommen. Die entsprechenden
Polynome verschwinden also.
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-15; 03-14’:
• Definition ‘affine variety’: An affine variety over an algebraically closed field K is a
subset of some affine space K n over K which can be described as the vanishing set
of finitely many polynomials in n variables with coefficients in K, and which cannot be
written
as
the
union
of
two
smaller
such
sets.
(http://planetmath.org/encyclopedia/AffineVariety.html)
• ‘iff’ = ‘if and only if’
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-15; 04-14’ und ‘University; Computational Commutative Algebra 1
(Algebra 2); SS 2004; 2004-07-15; 05-14’:
• V ist eine affine variety. Nach der Definition kann man hier nun Polynome in 2
Variablen finden, so dass p1 = (1;1) , p2 = (1;0) und p3 = (2;0 ) die Elemente des
vanishing sets dieser Polynome sind.
• Diese Polynome findet man, indem man Geraden durch je 2 Punkte legt:
y
x
• Die Geradengleichungen lauten:
• blau: x = 1 ⇔ x − 1 = 0
• rot: y = 0
• gelb: y = − x + 2 ⇔ y + x − 2 = 0
• Nun bildet man aus je 2 Geradengleichungen das Produkt:
• blau-rot: (x − 1)y
• blau-gelb: (x − 1)(y + x − 2)
• rot-gelb: y (y + x − 2)
• Ein Produkt ist = 0, wenn eine der beiden Geradengleichungen = 0 ist. Logisch
ausgedrückt: Die eine oder die andere.
• Also sind alle Produkte = 0 (logische Und-Verknüpfung; es ergibt sich der GesamtAusdruck (Geradengleichung 1 = 0 oder Geradengleichung 2 = 0) und
(Geradengleichung 1 = 0 oder Geradengleichung 3 = 0) und (Geradengleichung 2 =
0 oder Geradengleichung 3 = 0)), wenn mindestens 2 Geradengleichungen = 0 sind.
• Wenn 2 Geradengleichungen = 0 sind, so gilt insbesondere, dass sie gleich sind.
• 2 Geradengleichungen sind dort gleich, wo ihr Schnittpunkt ist.
Page:
21
• Die Schnittpunkte sind p1 , p2 und p3 .
• Also sind die Polynome an diesen 3 Punkten = 0, also liegen sie im vanishing set
dieser Polynome. (Man überlegt sich kurz, dass es auch keine weiteren gibt.)
• Also lässt sich die Koordinaten-Information in diese 3 Polyome codieren. Hat man die
3 Polynome, so kann man die Koordinaten-Information decodieren, indem man das
vanishing set dieser 3 Polynome berechnet.
• Das nächste Ziel ist es, wenn man die Polynome gegeben hat, daraus die Polynome
der projizierten Punkte zu berechnen. Aus ihnen kann man dann die KoordinatenInformation der projizierten Punkte gewinnen.
• “ q ∈ A1 is a ...”:
• Wenn (p, q ) ∈ Z (I ) , dann ist (p, q ) ∈V (I wurde ja gerade so konstruiert.).
• Da auf die y-Achse projiziert wird, fällt die erste Koordinate eines Punktes aus A 2
beim Projizieren einfach weg; es überlebt also nur das q.
• “ f ∈ K [y ] is in ...”:
• Das f hat 2 Argumente (obwohl es ∈ K [y ] ist), weil das f eigentlich aus I kommt.
• q ∈ π(V ) bedeutet, dass q überhaupt erstmal ein projizierter Punkt ist, dass es also
einen Punkt (p, q ) ∈V gibt, der auch tatsächlich auf q abgebildet wird. Dies sorgt
dafür, dass die Bedingung f (p, q ) = 0 nur für projizierte Punkte erfüllt sein muss;
bei anderen ist es egal.
• (p, q ) ∈ π −1 (q ) bedeutet, dass (p, q ) der Punkt ist, der auf q abgebildet wird, und
nicht z. B.
r ,q .
≠p
• “Hence f ∈ K [y ] is ...”:
• Wenn f aus dem vanishing ideal I (π(V )) ist, dann ist f in I, weil f (p, q ) = 0 für alle
(p,q ) ∈V , und in K [y ] , weil es das vanishing ideal aller Punkte
q
∈ π(V ) ist.
hat nur eine Koordinate
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-15; 07-14’:
• Ein Minimalpolynom zu einer Abbildung f ist das normierte, kleinste Polynom, dass,
wenn man f in dieses Polynom einsetzt, die 0-Abbildung ergibt. Insbesondere kann f
natürlich auch selber ein Polynom sein.
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-15; 10-14’:
• Wenn der Leitterm von f in P̂ liegt, dann soll ganz f in P̂ liegen.
• Dazu müssen aber alle, also auch die kleineren Terme von f, in P̂ liegen.
• Also können nur größere Terme als LT (f ) nicht in in P̂ liegen.
• Wenn also ein Term, der ein x i aus Y enthält (also durch x i teilbar ist) und somit
nicht in P̂ liegt, so muss er größer sein als alle Terme aus P̂ , denn sonst könnte
man ein Polynom aus dem größeren Term (aus P̂ ) und dem kleineren Term (aus
Ncht- P̂ ) bilden, das dann nach Definition der Elimination-Ordnung zwar in P̂ liegen
müsste, es aber offensichtlich nicht tut, denn es ist ja ein x i aus Y enthalten.
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-15; 11-14’:
• Die Terme x1, , x i müssen also größer als die Terme x i +1, , x n sein.
Page:
22
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-15; 14-14’:
• I ∩ J = U ∩ P , weil:
f = c1f1 + + c s fs = d 1g 1 + + d t g t ( ⇔ f ∈ I ∩ J )
⇔ c1f1 +
+ c s f s − d 1g 1 −
− dt gt = 0
⇔ c1f1 +
+ c s f s − d 1g 1 −
− d t g t + d 1g 1y +
⇔ c1f1 +
⇔ c1f1 +
+ c s f s + (− d 1 + d 1y )g 1 +
+ c s f s + (− d 1 )g 1 (1 − y ) +
+ d t g t y = fy
=fy
+ (− d t + d t y )g t = fy
+ (− d t )g t (1 − y ) = fy ∈ U
2004-07-20
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-20; 01-19’:
• Wäre eine der ersten i Komponenten von v ungleich 0, z. B. v j , so wäre, weil σ eine
≤i
0
0
0
0
Komponenteneliminationsordnung ist, v j > v λ = LT (v ) , was aber nicht sein kann,
0
0
0
0
=t ′e j
=teλ
0
0
weil sonst v j
0
der Leitterm wäre.
0
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-20; 03-19’:
• LT (g ) ∈ F , weil:
Page:
23
0
0
•
t = t ′ LT (g )
0
0
= teλ ;
∈F
• Weil t ′ nur ein 1-dimensionaler Term ist und LT(g ) und ein Vektor ist, ist LT(g )
dafür verantwortlich, in welcher Zeile der Vektor t ′ LT (g ) den Eintrag hat.
0
0
• Wegen t ′ LT(g ) = t
0
ist der Eintrag bei LT (g ) auch in Zeile λ > i und somit
0
= teλ ;
∈F
LT(g ) ∈ F .
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-20; 05-19’:
• N :=
v1
vs
0
−1
0 , ,
0
0
−1
=:v 1
=:v s
0
• Sei a =
0
~
∈N .
a1
as
• Dann ist
Page:
24
v1
vs
0
0
a1 0 +
+ as
0
0
0
v1
vs
0
0
−1
0
1
0
= a1 0 +
+ as
+ a1 0 +
+ as
0
0
0
−1
v1
vs
0
−1
0
a1
= a1 0 +
+ as
0
+
1
0
0
−1
∈N
∈N
as
~
∈N
∈N
∈N
∈N
v1
0
vs
0
+
• Also ist z := a1
0
0
• Dann
gibt
z1
z=
∈N .
+ as
zr
0
v1
−1
0
= b1
0
b1, , bs
es
vs
0
+
+ bs
0
0
−1
Erzeuger von N
Erzeuger von N
v1
− b1
= 0 +
0
mit
vs
0
+
.
0
− bs
mit s 0 - en unten
• Also sind die bi = 0 .
z1
• Also ist z =
zr
0
=0.
0
mit s 0 - en unten
Page:
25
v1
0
vs
0
• Nach Definition von z ist also a1
+
+ as
= 0.
0
0
• Also ist a1v 1 + + as v s = 0 .
• Also ist (a1, , as ) ∈ Syz(V ) .
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-20; 07-19’:
• Ergänzungen zur 2. Anwendung:
s
t
wj
v
•
ai i + b j
∈ Lˆ = L ∩ 0 ⊕ ⊕ 0 ⊕ P ⊕ ⊕ P
w
0
i =1
j =1
j
r Stück
r Stück
0
• Weil u i :=
0
uˆ i
∈ Lˆ , ist auch u i ∈ L .
i - ter Erzeuger von Lˆ
0
• Damit gibt es a i und bi mit
s
i =1
• Wegen der unteren r Zeilen (
ai
t
j =1
vi
+
0
t
j =1
bj
wj
=
.
wj
0
uˆ i
b j w j = uˆ i ) ist uˆ i ∈ N .
s
• Wegen der oberen r Zeilen ist
i =1
ai v i +
t
j =1
0
bjw j =
⇔
0
s
i =1
ai v i = −
t
j =1
b j w j = −uˆ i ,
∈M
also − ûi und somit auch uˆ i ∈ M .
• Also uˆ i ∈ M ∩ N .
0
• Die Rückrichtung (beliebiges Element aus M ∩ N führt zu einem
0
û i
-s in L̂ )
lässt sich analog zeigen.
• Ergänzungen zur 3. Anwendung:
• M : w = {h ∈ P hw ∈ M } = h ∈ P
P
hw = 0
modulo M , also in P r / M
= Ann P r / M (w )
Page:
26
0
• Weil u i =
0
fi
∈ Nˆ , ist auch u i ∈ N
0
• Also gibt es ai und b mit
s
i =1
vi
ai
+b
0
w
1
=
0
.
fi
=u i
• Wegen der unteren Zeile ist f i = b ∈ P .
∈P
s
• Wegen den oberen r Zeilen ist
i =1
0
a i v i + bw =
⇔ bw = −
s
i =1
0
ai v i ∈ M .
∈M
• Also ist b ∈ M : w .
P
• Wegen f i = b ist f i ∈ M : w .
P
0
• Die Rückrichtung (beliebiges Element aus M : w führt zu einem
P
0
fi
-s in L̂ ) lässt
sich analog zeigen.
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-20; 09-19’:
• I (M ) ist ein Ideal (und kein Untermodul), weil I (M ) ein Ideal des Rings R × M ist.
• Man hat also einen Ring gefunden, in dem ein zum Modul M isomorphes Objekt ein
Ideal ist. Man hat M gewissermaßen ‘idealisiert’.
• Ergänzungen zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra
2); SS 2004; 2004-07-20; 13-19’:
r r′
• (r , s ) ~ (r ′, s ′) ⇔ = ⇔ rs ′ = r ′s ⇔ r ′s − s ′r = 0
s s′
′
′
• Woher das ‘ s ’ kommt, ist an dieser Stelle noch nicht offensichlich.
• Ergänzung zu Tafelbild ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-07-20; 19-19’:
∞
r
• M :r (f ) = M ⋅ P [y ] + (fy − 1) ⋅ P [y ] ∩ P r , weil:
P
(
)
• Nach Satz auf Tafelbild ‘University; Computational Commutative Algebra 1
∞
(Algebra 2); SS 2004; 2004-07-20; 17-19’ gilt M :r (f ) = M f ∩ P r .
P
• Nach Satz auf Tafelbild ‘University; Computational Commutative Algebra 1
(Algebra 2); SS 2004; 2004-07-20; 16-19’ gilt M f ≅ P [y ] / (fy − 1) .
Page:
27
Computational Commutative Algebra 1 – Book
Notes
1.1 Polynomial Rings
• Definition 1.1.3:
• Ein R-Algebren-Homomorphismus ist eine Abbildung ρ : S → T , die, wenn man
r ∈ R und s ∈ S hat und diese nach T konvertieren will, weil man in T rechnen will,
es einem ermöglicht, r nicht erst mit ϕ : R → S in S umrechnen zu müssen, sondern r
mit ψ : R → T gleich in T umrechnen zu können, die also in gewisser Hinsicht
kompatibel mit ψ ist.
• Mit anderen Worten: ρ(ϕ(r ) ⋅ s ) = ρ(ϕ(r )) ⋅ ρ(s ) = ψ (r ) ⋅ ρ(s )
R
ϕ
ψ
S
ρ
T
• Definition 1.1.4:
• Ein Körper K hat nur die Ideale K und {0}, denn:
• Sei r ∈ I .
• Wegen K ⋅ I ⊆ I und der Existenz von r −1 ist auch r −1r = 1∈ I .
• Wieder wegen K ⋅ I ⊆ I und 1∈ I ist K ⋅1 ⊆ I , also K ⊆ I .
• Da sowieso I ⊆ K , ist I = K .
1.2 Unique Factorization
• Proposition 1.2.2:
• Da in K [x ] jedes Ideal ein Hauptideal ist, lässt sich ein Element finden, welches das
Ideal (a, f ) alleine erzeugt, also (a, f ) = (e ) .
• Weil a und f ganz offensichtlich Elemente dieses Ideals sind, müssen sie Vielfache
von e sein, denn nur so kann man sie erreichen.
• Weil f nach Voraussetzung eine Nicht-Einheit ist und K ein Körper ist, also jedes
Element (außer 0) eine Einheit ist, muss f ein echtes Polynom sein.
• Weil f irreduzibel ist, kann nur eine Zahl aus dem Körper ein Teiler von f sein – oder
f.
• f kann das Ideal nicht erzeugen, denn auch a ist in dem Ideal und a ist kein
Vielfaches von f, müsste es aber sein, wenn f der Erzeuger des Ideals ist.
• Also wird das Ideal durch eine Zahl e (ungleich 0) aus dem Körper erzeugt.
• Weil I ein Ideal ist ( R ⋅ I ⊆ I , hier R = K [x ] ) ist auch e −1e ∈ I ⇔ 1∈ I
• Lemma 1.2.11:
• 1 = cont (f ) = g ⋅ cont (h ) ausführlich:
• cont (f ) = 1 , da f o. B. d. A primitve ist
Page:
28
• cont (f ) = cont gh
=f
=
cont (g ) ⋅ cont (h )
Gauß's Lemma
=
weil deg(g )= 0 und
somit g eine Zahl ist
g ⋅ cont (h )
• also: g ⋅ cont (h ) = 1
• also: cont (h ) = g −1
• Also ist g invertierbar und somit eine Einheit. Widerspruch zur Annahme, g sei
keine Einheit.
1.3 Monomial Ideals and
Monomial Modules
• Proposition 1.3.4:
• Ergänzung zum Beweis ‘b)
c)’: Hier sollte erstmal geklärt werden, was ‘maximal’
überhaupt bedeutet. ‘Maximal’ bedeutet nämlich nur, dass es kein größeres gibt und
nicht, dass es Obermenge von allen anderen sein muss. Sehe auch Tafelbild
‘University; Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-0513; 01-10’.
a)’: Angenommen, das maximale Element (nenne es
• Ergänzung zum Beweis ‘c)
~
∆ ) der erwähnten Menge von Monoidealen ist nicht ∆ . Dann gibt es ein Element δ ,
~
das in ∆ , aber nicht in ∆ liegt. Nehme dieses Element zur endlichen Erzeugermenge
~
von ∆ hinzu und erhalte eine neue Erzeugermenge, die ein Ideal erzeugt, das echt
~
größer als ∆ ist und dennoch durch eine endliche Teilmenge von Elementen aus ∆
~
erzeugt wird, also in der erwähnten Menge von Monoidealen liegt. Doch dann ist ∆
nicht mehr das maximale, denn dieses ist ja größer. Widerspruch. Also ist ∆ das
maximale Element und somit endlich erzeugt.
• Proposition 1.3.5:
• Ergänzung zu 'n = 1 ’: Jedes Monoideal ist von der Form (a ) , denn: Betrachte z. B.
das Monoideal (8,12,15 ) . Da die Operation ‘+’ ist und in N die Zahl 1 liegt, gilt für das
Monoideal (8 ) , dass (8 ) = {8,9,10, }, denn es muss ja gelten 8 + n ∈ (8 )∀n ∈ N (siehe
Definition ‘Monoideal’). Also sind auch 12,15 ∈ (8 ) und somit (8 ) = (8,12,15 ) .
• Ergänzungen zu 'n > 1 ’:
v 1.1
v 1.1 v 2.1
v 1. 2
v v
• Die Kette
⊆ 1.2 , 2.2 ⊆
wird letztendlich stationär, weil die Kette
v 1. n
v 1. 2
v 1. n
v 1.2 v 2.2
⊆
,
⊆
v 1. n v 2. n
v 1. n v 2. n
nach Induktionsvoraussetzung letztendlich stationär wird
und weil die ersten Komponenten v 1.1,v 2.1,
nicht fallend sind, also gilt
v 1.1 ≤ v 2.1 ≤ . Wie oben erläutert, gilt dann (v 1,1 ) = (v 1,1,v 2,1 ) = , weil die Operation
v 1. 2
ja ‘+’ ist und v 1.1 die kleinste Zahl ist. Mit
v 1. n
v 1.2 v 2.2
⊆
,
⊆
v 1. n v 2. n
Page:
gilt dann
29
insgesamt
v 1.1
v 1. 2
v 1.1 v 2.1
v v
⊆ 1.2 , 2.2 ⊆
v 1. n
v 1. n v 2. n
• v i = w mi ∉ (w1,
, w mi −1 ) ⊇ (v 1,
.
, v i −1 ) :
• v i = w mi : nach Definition
(
• w mi ∉ w1,
)
, w mi −1 :
• Angenommen w mi ∈ (w1,
w mi ∈
w1 ,
∈∆ n2 \ ∆ n1
,
, w mi −1 ) .
w mi −1
∈∆ nm
i −1+1
\ ∆ nm
i −1
w mi ∈ ∆ nmi −1+1
w mi ∈ ∆ nmi −1+1 ⊆
•
⊆ ∆ n mi
w m i ∈ ∆ n mi
w mi ∉ ∆ nmi +1 \ ∆ nmi
• Aber w mi wurde so gewählt, dass w mi ∈ ∆ nmi +1 \ ∆ n mi . Widerspruch.
•
(w ,
• Der
1
)
, w mi −1 ⊇ (v 1,
Widerspruch
, v i −1 ) : weil {v1,
ist
nun,
dass
{
}
, v i −1} ⊆ w1,
, w mi −1 = w1,
(
v i = w mi ∉ w1,
, w m1 ,
, w mi −1 ) ⊇ (v 1,
=v 1
, w mi −1
= v i −1
, v i −1 ) ,
also
insbesondere v i ∉ (v 1, ,v i −1 ) für alle i. Der Widerspruch liegt darin, dass, wie
eben gezeigt (v 1 ) ⊆ (v 1,v 2 ) ⊆
irgendwann stationär wird; mit anderen Worten
(v 1 ) ⊆ (v 1,v 2 ) ⊆ ⊆ (v 1,v 2 , ,v i −1 ) = (v 1,v 2 , ,v i −1,v k ) = . Dann gibt es aber ein i,
so dass v i ∈ (v 1,v 2 , ,v i −1 ) im Widerspruch zu ‘ v i ∉ (v 1, ,v i −1 ) für alle i’.
• Corollary 1.3.6 (Dickson’s Lemma):
• Die interessante Aussage ist, dass die Aussage nicht nur für Monoideale, die eine
echte Teilmenge von T n sind, gilt, sondern auch für das Monoideal T n selbst.
• Damit ist auch ganz das Ideal R [x1, , x n ] durch das endliche Erzeugendensystem
von T n erzeugt, weil man hier zusätzlich die Operation ‘+’ hat und sich jedes
Polynom in R [x1, , x n ] als Summe von Termen (= Monomen), die ja aus T n
kommen, schreiben lässt. Weil es ein endliches Erzeugendsystem für T n gibt, kann
man jeden Term erzeugen. Weil es ‘+’ gibt, kann man sie so aneinander reihen, dass
man die Darstellung für das darzustellende Polynom erzeugen kann.
1.4 Term Orderings
• Definition 1.4.7:
• t 1 ≥ DegRecLex t 2 , wenn deg(t 1 ) > deg(t 2 ) oder wenn in t 1 weniger ‘kleine’ Variablen
vorkommen als in t 2 .
• So ist x1 x 2 > x1x 3 , weil zwar deg(x1x 2 ) = deg(x1 x 3 ) , aber die kleine Variable x 3 in
Page:
30
x1 x 2 0-mal vorkommt, aber in x1 x 2 > x1x 3 1-mal.
• analog x12 x 2 > x1x 22 , weil die hier kleine Variable x 2 in x12 x 2 nur 1-mal vorkommt,
aber in x1 x 22 2-mal.
1.5 Leading Terms
• Theorem 1.5.7 (Macaulay’s Basis Theorem):
• siehe Tafelbilder ab ‘University; Computational Commutative Algebra 1 (Algebra 2);
SS 2004; 2004-05-11; 14-20’
• Ergänzung zum Beweis der linearen Unabhängigkeit: Hier steht
s
i =1
nicht
s
i =1
c i mi ∈ M und
c i mi = 0 (der ‘normale’ Ansatz zum Beweis der linearen Unabhängigkeit),
weil M die Restklasse 0 ist.
• Proposition 1.5.10 und 1.5.11:
• Der Unterschied zwischen R [x i , , x n ] und (x i , ., x n ) ist, dass in R [x i , , x n ] nur die
Polynome (hier kommt es aber nur auf die Monome an) sind, die nur aus x i , , x n
bestehen, während in Polynomen in (x i , ., x n ) auch die Variablen x1, , x i −1
vorkommen können ( R [x1, , x n ] ⋅ I ⊆ I ). Das Besondere an Polynomen in (x i , ., x n )
ist, dass in jedem ihrer Monome jedoch mindestens eine der Variablen aus x i , , x n
liegen muss.
1.6
The
Algorithm
Division
• Example 1.6.6: x1 − x 2 = (2 x + 1) − (x1 + x 2 + 1) ∈ (g 1, g 2 ) , weil:
(x1 + x 2 )g1 + g 2 + (x1 + x 2 + 1) = x1g1 + (x1 + 1)g 2 + (2x1 + 1)
=f
=f
⇔ (x1 + x 2 )g 1 + g 2 − x1g 1 − (x1 + 1)g 2 = (2 x1 + 1) − (x1 + x 2 + 1)
⇔ x 2 g 1 − x1g 2 = x1 − x 2
Es gibt also eine Linearkombination von g 1 und g 2 , also x1 − x 2 ∈ (g 1, g 2 )
1.7 Gradings
• Definition 1.7.6.b:
• Mit F := ⊕ R (γ i ) ist gemeint: I = {1,
i ∈I
r } , F = R r und die Graduierung der i-ten
Komponente eines Polynomvektors aus F ist um γ i verschoben bzgl. der StandardGraduierung.
R (γ1 )
• quasi: F =
R (γ r )
Page:
31
0
0
• also ist z. B. deg 1
0
(
)
= deg 1R (γ i ) = 0 + (− γ i ) = − γ i
0
= ei
• Definition 1.7.8: Der Sinn dieser Definition ist der folgende: Man hat nun Grade für
0
bestimmte Elemente von Moduln definiert (z. B. deg
2
1
2x x 2
0
0
0
(
= x12 x 2
∈T
2
) 01
0
=ˆ
0
= e2
∈P 4
2 1
1 0
∈N2
).
0
= e2
0
2 x12 x 2
Einige Elemente haben jedoch keinen direkten Grad (z. B.
), da sie Summe
x1
0
aus 2 Elementen sind, die jedoch dann wieder direkt einen Grad haben (z. B.
0
0
0
2
2
2 x1 x 2
2 x1 x 2
0
=
+
) und die selber Elemente dieses Moduls sind, also nicht
x1
0
x1
0
0
0
‘außerhalb’ liegen ( M = ⊕ M s ). Dasselbe möchte man jetzt auf Submoduln dieser
s∈Σ
Moduln übertragen. Dazu sind aber nicht alle Submoduln geeignet, weil ihre
erzeugenden Elemente keinen direkten Grad haben (z. B. das Ideal I := (x − 1) ) und nur
im Modul selbst, nicht aber im Submodul in Komponenten mit eigenem Grad zerfallen
( I ∩ Pd = (0 ) für alle Grade d). Diese möchte man nicht betrachten. Stattdessen möchte
man nur Submoduln betrachten, die diesbezüglich abgeschlossen sind, das heißt deren
Elemente im Submodul selber in homogene Komponenten zerfallen ( N = ⊕ (N ∩ M s ) .
s∈Σ
Solche Submoduln werden also aus Elementen erzeugt, die im Submodul selber liegen
und auch direkt einen Grad haben (denn sie liegen in N und in M s ). Solche Submoduln
sind geeignet um das Grad-Framework für Moduln auf sie zu übertragen, denn jedes
Element aus ihnen zerfällt in Elemente, die direkt einen Grad haben und auch im
Submodul liegen. Falls der Submodul ein Ideal ist (also M = R 1 und N = I ), so verdient
es den Namen ‘homogenes Ideal’ weil es aus Elementen erzeugt wird, die direkt einen
Grad haben, die also homogene Komponenten sind.
• Remark 1.7.9:
• Verdeutlichung der Definition (M / N )s := M s / N s am Beispiel M := R [x ] und N := x 2
• Dann haben die Elemente in M / N das Aussehen a1 x + a0 .
( )
Page:
32
{
}
• Es ist M 0 = {a0 a0 ∈ R}, M1 = {a1 x a1 ∈ R} , ..., N 0 = { } , N1 = { }, N 2 = a2 x 2 a2 ∈ R ,
(M / N )0 = {a0 a0 ∈ R} = M 0 / N 0 ,
...,
(M / N )1 = {a1x a1 ∈ R} = M1 / N1 ,
(M / N )2 = { } = M 2 / N 2 .
• Proposition 1.7.10: Beim Beweis von ‘c)
a)’ stellt man sich am besten R als den
Polynomring (über einem weiteren Ring) vor. Dann wird klar, warum die rβ -s erst noch
in ihre homogenen Komponenten zerlegt werden müssen.
′
′
• Korollar 1.7.11:
aβ nβ − n muss gleich 0 sein, weil: n ist homogen vom Grad s. aβ ist
β∈B
′
″
der einzige Anteil von aβ , so dass deg aβ nβ = s . Mit anderen Worten: Alle in aβ
″
zusammengefassten Komponenten von aβ führen dazu, dass deg aβ i ⋅ nβ ≠ s , wobei
aβ
″
i
eine dieser Komponenten ist. Betrachte nun 0 =
β∈B
der Unterschiedlichen Grade kein Summand in
β∈B
′
aβ n β − n +
″
aβ n β
den Teil
β∈B
β∈B
β∈B
′
aβ nβ − n
′
wegkürzen. Da aber trotzdem insgesamt 0 rauskommt, muss
Damit ist n =
β∈B
″
aβ nβ . Wegen
aβ nβ − n = 0 sein.
′
aβ n β .
• Proposition 1.7.12:
• Nach Definition gilt: P ist Primideal :⇔ (fg ∈ P; f , g ∈ R f ∈ P ∨ g ∈ P ) .
• Es
ist
also
zu
zeigen:
(fg ∈ P; f , g ∈ R f ∈ P ∨ g ∈ P ) ⇔ (fg ∈ P; f , g ∈ R und homogen f ∈ P ∨ g ∈ P ) ,
wobei P zusätzlich ein homogenes echtes Ideal in R ist.
• Im folgenden Beweis wird folgendes Lemma benutzt: Sei I ein homogenes Ideal und
f = fγ 1 + + fγ s die Decomposition von f in homogene Komponenten in R. Dann gilt:
f ∈ I ⇔ ∀i : fγ i ∈ I .:
• ‘ ⇐ ’: Klar. Gilt wegen der Abgeschlossenheit von Idealen bzgl. ‘+’. (Gilt auch bei
nicht homogenen Idealen.)
• ‘ ’: Weil I homogen ist, gilt nach Definition von ‘homogenes Ideal’: I = ⊕ I ∩ R γ .
γ∈Γ
=:I γ
Also gibt es eine Decomposition von f in I. Weil I ⊆ R ist und die Decomposition
eindeutig ist, muss die Decomposition von f in I die gleiche wie in R sein. Also
liegen alle f γ i nicht nur in R γ i , sondern auch in I γ i . Weil I γ i ⊆ I ist (wegen
I γ i = I ∩ Rγ i ), liegen die f γ i -s also auch in I, was zu zeigen war.
• ‘ ': Klar. Wenn fg ∈ P; f , g ∈ R f ∈ P ∨ g ∈ P für beliebige f, g gilt, dann erst recht
für homogene.
• '⇐ ’:
(fg ∈ P; f , g ∈ R und homogen f ∈ P ∨ g ∈ P )
• Annahme,
es
gilt
und
fg ∈ P; f , g ∈ R , aber nicht f ∈ P ∨ g ∈ P . Dann gilt f ∉ P ∧ g ∉ P .
• Seien f = f γ1 + + f γ s und g = g γ1 + + g γ s , wobei γ 1 < < γ s
Page:
33
• Laut
dem Lemma
~
g ∉ P ⇔ ∃j : g γ ~j ∉ P .
gilt
~
f ∉ P ⇔ ∃i : fγ~ ∉ P
I =P)
(setze
i
und
analog
• Wähle aus den fγ ~i ∉ P bzw. g γ ~j ∉ P jeweils die beiden mit kleinstem Grad aus:
f γ i ∉ P bzw. g γ j ∉ P . (Mit anderen Worten: ∀γ ~i ≠ γ i : γ i < γ ~i . Analoges für bei den
g-s.)
• In fg = f γ1 +
(
)(
+ f γ s g γ1 +
+ g γs
) taucht der Summand f
γi
g γ i auf. Dieser hat Grad
γ i + γ j . Es können aber noch andere Summanden diesen Grad haben.
• Die Summe genau der Summanden mit Grad γ i + γ j
ist die homogene
Komponente (fg )γ i + γ j vom Grad γ i + γ j vom Element fg . Die Summe/ homogene
Komponente sieht so aus: (fg )γ i + γ j = f γ i g γ i +
fγk g γl .
{(k ,l ) (k ,l )≠(i , j )∧ γ k + γ l = γ i + γ j }
• Die Summanden von
liegen alle in P, denn:
fγk g γl
{(k ,l ) (k ,l )≠(i , j )∧ γ k + γ l = γ i + γ j }
• Es muss γ k < γ i oder γ l < γ j gelten, denn wären beide größer, dann wäre auch
ihre
Summe
γk + γl > γi + γ j ,
!
(k, l )(k, l ) ≠ (i , j ) ∧ γ k + γ l = γ i + γ j
doch
die
Summe
läuft
über
.
• Da γ i und γ j jeweils minimal gewählt wurden, so dass f γ i ∉ P bzw. g γ j ∉ P ,
liegt f γ k oder g γ l in P (je nachdem, ob γ k < γ i oder γ l < γ j ).
• Da P ein Ideal ist und somit gilt R × P ⊆ P , liegt der Summand f γ k g γ l auf jeden
Fall in P, da ja f γ k oder g γ l in P liegt.
• Da jeder Summand von
fγk g γl
in P liegt, liegt auch die ganze Summe
{(k ,l ) (k ,l )≠(i , j )∧ γ k + γ l = γ i + γ j }
in P.
• Wende nun wieder das Lemma an: Weil fg ∈ P , ist auch jede homogene
Komponente in P, insbesondere (fg )γ i + γ j .
•
(fg )γ + γ
i
j
= fγi g γi +
fγk g γl
⇔ f γ i g γ i = (fg )γ i + γ j −
fγk g γl
{(k ,l ) (k ,l )≠(i , j )∧ γ k + γ l = γ i + γ j }
{(k ,l ) (k ,l )≠(i , j )∧ γ k + γ l = γ i + γ j }
∈P
∈P
∈P , wegen Abgeschlossenheit von P bzgl. '+ '
• Also ist f γ i g γ i ∈ P .
• Wegen der Voraussetzung ‘ fg ∈ P; f , g ∈ R und homogen
also f γ i ∈ P oder g γ i ∈ P . (Setze hier f = f γ i und g = g γ i .)
f ∈ P ∨ g ∈ P ’ folgt jetzt
• Aber f γ i und g γ j waren ja beide nicht in P.
• Also hat die anfängliche Annahme ‘ f ∉ P ∧ g ∉ P ’ zu einem Widerspruch geführt
und muss daher falsch gewesen sein. Somit gilt das Gegenteil f ∈ P ∨ g ∈ P und
somit
(fg ∈ P; f , g ∈ R f ∈ P ∨ g ∈ P ) ⇐ (fg ∈ P; f , g ∈ R und homogen f ∈ P ∨ g ∈ P ) .
• Proposition 1.7.15 (Nakayama’s Lemma):
• Es reicht M2 ⊆ M1 zu zeigen, weil nach Voraussetzung bereits M2 ⊇ M1 gilt.
Page:
34
• Angenommen, M2 ⊆ M1 gilt nicht.
• Dann gibt es in M2 \ M1 ein homogenes Element, weil:
• Zunächst einmal gibt es ein Element, weil ja angenommen wird, dass M2 ⊆/ M1 .
• Weil M1 und M2 Σ -graded sind, lässt sich nach Definition jedes Element aus M1
bzw. M2 eindeutig in homogene Elemente, die ebenfalls in M1 bzw. M2 liegen,
decomposen.
~ ∈ M \ M ein (nicht notwendiger Weise homogenes) Element, z. B.
• Sei nun m
2
1
~ ∈M \ M
~ ∈ M .)
x + 1 . (Beachte: m
m
2
1
2
~ nicht in M , denn wären
• Dann ist zumindest eine homogene Komponente von m
1
~
~
~ ist ja
alle homogenen Komponenten von m in M 1 , so wäre auch m ∈ M 1 , denn m
die Summe seiner homogenen Komponenten.
~ ∈ M , dann kann m
~ nicht in M \ M . Widerspruch.
• Wenn aber m
1
2
1
~
• Wähle m als die homogene Komponente von m , die nicht in M 1 liegt. Noch zu
zeigen: m ist in M2 .
~ lässt sich in nicht in M decomposen und m ist ja eine
• Dies ist der Fall, denn m
2
~
homogene Komponente von m .
• Weil M2 Σ -graded ist und m ∈ M2 ist, lässt sich m nach Corollary 1.7.11 schreiben
als m = rβnβ , wobei rβ ∈ R und nβ ∈ M2 homogene Erzeuger von M2 und
β∈B
deg(rβ ) ∗ deg(nβ ) = deg(m ) .
=:s
• Betrachte nun den Teil der Summe, mit deg(rβ ) > 0 (also rβ ∈ R+ ). Dann ist
m = m′ +
r n mit einem passenden m′ , dass die Komponenten mit deg(rβ ) = 0
β β
β∈B deg(r β )> 0
enthält.
• Wegen deg(rβ ) ∗ deg(nβ ) = deg(m ) und deg(rβ ) > 0 ist deg(nβ ) < deg(m ) .
• Weil m minimalen Grad in M 2 \ M 1 hatte, können die nβ -s nicht in M 2 \ M 1 liegen.
Weil alle nβ ∈ M2 müssen alle nβ -s auch in M1 liegen.
• Es ist m = m′ +
∈M 2
β∈B deg(rβ )> 0
rβ nβ . Da M2 ⊆ M1 + R+M2 , besitzt im Besonderen m eine
∈R + ∈M 2
∈R + M 2
entsprechende Darstellung, das bedeutet, dass man von m′ ∈ M1 ausgehen kann.
• Da außerdem
rβ nβ
, gilt m = m′ +
rβ nβ , also
( )
β∈B deg rβ > 0
∈R+ ∈M1
∈M1
( )
β∈B deg rβ > 0
∈M1
∈M1, weil M1 ein Modul ist und somit R ⋅M1 ⊆ M1
∈M1
∈M1 wegen der Abgeschlossenheit von M1 bzgl. '+ '
m ∈ M1 .
• Dies ist ein Widerspruch, denn wenn m ∈ M1 , kann m nicht in M 2 \ M 1 liegen, was
aber Voraussetzung gewesen ist.
• Also ist M 2 \ M 1 leer und damit M2 ⊆ M1 .
• Corollary 1.7.16:
• a):
• M ⊆ N + R+ ⋅ M , weil:
Page:
35
• mi steht für eine Restklasse, nämlich für Menge der Vektoren mi + R+ ⋅ M
• Dann erzeugt {m1, , m s } die Menge der Vektoren N + R+ ⋅ M . (Daher kommt
also ‘ N + R+ ⋅ M ’.)
• Es gilt nun ‘ M ⊆ N + R+ ⋅ M ’, weil zu jedem m ∈ M seine Restklasse
m ∈ M / R+ ⋅ M gebildet werden kann. Weiterhin kann jedes Element aus
M / R+ ⋅ M (also insbesondere die m -s) in eine Menge von Vektoren, nämlich
m + R+ ⋅ M verwandelt werden. Insgesamt findet man also jedes m ∈ M in ein
N + R+ ⋅ M wieder.
• b):
• Die entscheidende Frage ist: Warum ist M / (R+ ⋅ M ) ein R0 -Modul?:
v1
• Wie bei einem Vektorraum, hat ein ‘Vektor’ eines Moduls die Form v =
,
vn
wobei die Komponenten v i aus dem zu Grunde liegenden Ring sind.
• Damit M / (R+ ⋅ M ) ein R0 -Modul ist, müssen also die Komponenten in R0
liegen.
• Dies ist auch der Fall, denn durch ‘ / (R+ ⋅ M ) ’ werden in jeder Komponente
gerade die Teile, die in R1, R2,
liegen, herausgeschnitten, weil sie in der
Restklasse 0 liegen. Nur die, die in R 0 liegen, bleiben übrig.
x2
0
• Beispiel: x + 1 wird durch ‘ / (R+ ⋅ M ) ’ zu 1 .
2x + 3
3
2. Gröbner Bases
g
i
• “Suppose a vector ...”: g →g~ g und g~ sind modulo M in derselben Äquivalenzklasse,
g − g~ ∈ M ⇔ g und g~ sind modulo M in derselben
weil: g~ = g − t g i ⇔ tg i = g − g~
∈M
∈M
∈M
Äquivalenzklasse.
2.1 Special Generation
• Proposition 2.1.1: Hier ist M = g 1, , g s (siehe Tafelbilder ‘University; Computational
Commutative Algebra 1 (Algebra 2); SS 2004; 2004-05-25; 10-14’ und ‘University;
Computational Commutative Algebra 1 (Algebra 2); SS 2004; 2004-05-25; 11-14’).
• Proposition 2.1.3:
• A2
B1 , weil:
• B1 bedeutet, dass jeder Leitterm aus M sich darstellen lässt durch t ⋅ g i , wobei t ein
Monom ist.
• A2 sagt aus, dass der Leitterm jedes Elements aus M (also jeder Leitterm von M)
Page:
36
gleich dem max{LT (fi g i )} ist, wobei f i ein Polynom ist.
• Nun ist aber LT (f i g i ) = LT (fi ) ⋅ LT (g i ) (laut Proposition 1.5.3.d).
=:t i
• Also max{LT (fi g i )} = max{t i ⋅ LT (g i )} = t ⋅ LT (g i ) , wobei t eines der t i -s und somit ein
Monom ist.
• Dies ist genau die Aussage von B1 .
2.2 Rewrite Rules
• Erläuterungen zur Einleitung:
• Fernziel der Computeralgebra ist ja im Moment in M / U rechnen zu können.
• Die Elemente in M / U haben die Form m = m + U und für zwei Elemente aus M / U
gilt: m1 = m2 ⇔ m1 ≡ m2 mod U .
• Wenn nun M = P (oder auch M = P r ) und U = g 1, , g s ist (Stichwort: Polynome),
möchten wir für jedes Polynom f ∈ M (oder auch Polynomvektor) einen ‘schönen’
Representanten finden, also einen, in dem keine Vielfachen von g 1, , g s mehr drin
stecken.
• Eine Methode wäre der Divisionsalgorithmus aus Kapitel 1.6, der ja nach jedem
Zwischenschritt folgendes liefert:
f : g i = h1 + + ht + Rest
= f mod g i
Monom
=:h
− h1g i
f − h1g i
− ht g i
Rest
= f mod g i
= f − hg i
wobei der entstandene Rest f − hg i modulo g i in der selben Restklasse wie f liegt
(d. h./ denn: f mod g i =
f − hg i mod g i
), aber schon etwas weniger
= f − hg i , s. o.
=f − hg i , weil f − hg i sich ja nicht mehr durch g i teilen lässt
von den g i -s enthält als f, also ein schönerer Representant ist.
• Man stellt jedoch, wenn man einige Beispiele durchrechnet, fest, dass der
entstehende Rest f − hg i immer ein bestimmtes Aussehen hat, welches man, wenn
man aus f und g i direkt angeben kann, ohne den Divisionsalgorithmus benutzen zu
müssen.:
(x
=:f
4
(
3
)(
2
=:g
)
+ x − x + 1 : x − x + 1 = x 2 + 2x Rest : − 2 x + 1
− x −x +x
4
3
2
)
• 2x − 2x + 1
3
(
2
= f mod g
2
− 2x 3 − 2x 2 + 2x
)
− 2x + 1
Page:
37
• Schreibt man nun statt ‘ x 2 − x + 1’ ‘ x 2 − (x − 1) ’, so stellt man fest, dass man den
=:a
=:b
Rest − 2 x + 1 gleich kriegen kann, indem man in f ‘ x 2 ’ wiederholt durch ‘ (x − 1) ’
ersetzt:
2
x 4 + x 3 − x 2 + 1 → (x − 1) + (x − 1)x − (x − 1) + 1
= x 2 − 2x + 1+ x 2 − x − x + 1 + 1
= 2 x 2 − 4 x + 3 → 2(x − 1) − 4 x + 3
= 2x − 2 − 4 x + 3
= −2 x + 1
• Woran liegt das?:
• Man zerlegt g ja in a und b, genauer g = a − b . Daher liegen a und b in derselben
Äquivalenzklasse bzgl., d. h. modulo g. (Dies wiederum ist der Fall, denn 2
Elemente liegen nach Definition in derselben Äquivalenzklasse, wenn ihre
Differenz im ‘Unterraum’ liegt. Da g im von g aufgespannten ‘Unterraum’ liegt und
g = a − b ist nun a ≡ b mod g .)
• Da man f mod g (= Rest) betrachten möchte und a ≡ b mod g , darf man also in f
jedes vorkommen von a durch b ersetzen.
• Da man a als das Leitmonom von g definiert hat und b als ‘das Übrige von g’,
welches vom Grad her echt kleiner ist, konvertiert man f nach und nach in kleiner
werdende Polynome, die modulo g alle in derselben Äquivalenzklasse bleiben.
• Dieses Verfahren muss irgendwann stoppen, so dass man ein ‘schönstes’, weil
kleinstes Polynom findet, mit dem man f modulo g representieren kann.
• Proposition 2.2.2.d):
• alternativer Beweis:
• Prinzipiell braucht man die Fallunterscheidung gar nicht machen und kann mit
folgenden Überlegungen beweisen:
gi
• m1 → m 2 ⇔ m2 = m1 − ctg i ∧ t ⋅ LT (g i ) ∉ Supp(m2 )
• Sei c der Koeffizient von t ⋅ LT (g i ) in m1 , also m1 = + ct LT(g i ) + .
• Der Koeffizient von t ⋅ LT(g i ) in m2 ist wegen t ⋅ LT(g i ) ∉ Supp(m2 ) gleich 0, also
m2 = .
• Sei c ′ der Koeffizient von t ⋅ LT(g i ) in m3 , also m3 = + c ′t LT (g i ) + .
• Dann sind m1 + m3 = + (c + c ′)t LT (g i ) + und m2 + m3 = + c ′t LT (g i ) + .
• Wegen m1 + m3 − (c + c ′)t LT (g i ) =
• Wegen m2 + m3 − c ′t LT (g i ) =
gi
enthält t LT (g i ) nicht mehr
=: m 4 gilt m1 + m3 → m 4 .
g
enthält t LT (g i ) nicht mehr
~ gilt m + m →i m
~ .
=: m
4
2
3
4
~ , denn:
• Nun ist aber m 4 = m
4
m4 =
m1
+ m3 − (c + c ′)t LT (g i ) = m2 + ct LT (g i ) + m3 − (c + c ′)t LT(g i )
= m2 + ct LT (g i )
~
= m2 + m3 − c ′t LT (g i ) = m
4
gi
gi
also: m1 + m3 → m 4 und m2 + m3 → m 4
• Ergänzung zum Beweis im Buch:
• tLT (g i ) verschwindet im Fall c ′ = −c aus m2 + m3 − c ′tg i , weil tLT (g i ) nicht in m2
Page:
38
(siehe im Buch 3 Zeilen höher) vorkommt und weil tLT (g i ) in m3 gerade mit dem
Koeffizienten c ′ vorkommt (siehe im Buch 2 Zeilen höher). Also
m2 + m3 − c ′tg i = m2 + c ′tLT (g i ) + − c ′t (LT (g i ) + ) . Also verschwindet tLT (g i )
= m3
=g i
aus m2 + m3 − c ′tg i .
• Weil nun m1 + m3 = m2 + m3 − c ′tg i = (m2 + m3 ) − c ′tg i ,
gi
bedeutet
das,
dass
G
m2 + m3 → m1 + m3 und somit auch m2 + m3 → m1 + m3 .
G
• Außerdem gilt trivialer Weise: m1 + m3 → m1 + m3 .
G
G
• Wähle nun m 4 = m1 + m3 , dann gilt m1 + m3 → m 4 und m2 + m3 → m 4 .
• Bemerkung
zum
m 4 = m1 + m3 − (c + c ′)tg i =
Fall
c ′ ≠ −c :
m1 − ctg i
+
hier wird tLT (g i ) ausgelöscht
gi
m1 + m3 → m 4 ,
m3 − c ′tg i
.
weil
Also
hier wird tLT (g i ) wird ausgelöscht
also wird tLT (g i ) insgesamt ausgelöscht, kommt also in m4 nicht mehr vor
gi
gi
m1 + m3 → m 4 . m2 + m3 → m 4 analog.
• Proposition 2.2.5:
• Ergänzung zum Beweis ‘ C 2
C 3 ’:
G
G
′
′
• m2 − m2 ∈ M , weil m1 → m2 und m1 → m2 .
• Das heißt, dass sich m2 schreiben lässt als m2 = m1 − f1g 1 − − fs g s , wobei die f i
die sich aus den jeweiligen Reduktionsschritten ergebenden (angesammelten)
′
Polynome sind. Analoges gilt für m2 .
• Etwas
umgeschrieben
erhält
man
m1 = m2 + f1g 1 + + f s g s
und
′
′
′
′
′
′
m1 = m2 + f1 g 1 + + fs g s , also m2 + f1g 1 + + fs g s = m2 + f1 g 1 + + fs g s .
′
′
′
• Etwas umgeschrieben erhält man m2 − m2 = f1 − f1 g 1 + + fs − fs g s .
∈ g1, ,g s =M
′
• Also m2 − m2 ∈ M .
• Ergänzung zum Beweis ‘ C 4
• gegeben C 4
G
• m →0
G
• m →0
C1 ’:
m ∈M :
G
m↔0
m∈
nach Proposition 2.2.2.g)
M
= g1, ,g s
G
• m →0 ⇐ m ∈ M :
G
• m ∈M
m↔0
• m ↔ m2 ↔ ↔ mt −1
=:m1
→
0
'
← 'kann an dieser Stelle nicht sein, da sich 0 nicht reduzieren lässt =:mt
• Sei daher 1 ≤ l ≤ t − 2 (statt 1 ≤ l ≤ t − 1 ) der größte Index mit ml ← ml +1 . Oder
anders: ml +1 → ml .
• Dann gilt ml +1 → ml +2 → → 0 , weil ja l die letzte Stelle war, wo der Pfeil nach
Page:
39
G
links zeigt. Also gilt ml +1 → 0
• Andererseits gilt ml +1 → ml .
G
G
• Nach C 4 gibt es nun ein n, so dass 0 → n und ml → n .
• Da sich aber 0 nicht echt reduzieren lässt, ist n = 0 .
G
• Also ml → 0 .
• Erhalte nun die echt kürzere Sequenz m ↔ m2 ↔
=:m1
G
↔ ml → 0 .
• Gilt nun überall ‘ → ’ ist man fertig, ansonsten fängt man mit dieser neuen
Sequenz wieder vorne an.
G
• Auf jeden Fall erhält man am Ende m → 0 , nämlich dann, wenn es keine ‘ ← ’
mehr gibt.
• Proposition 2.2.6:
• einfacherer Beweis zu b):
gi
• m1 → m2 bedeutet m2 = m1 − ctg i .
G
• Demnach bedeutet m1 → m2 m 2 = m1 −
G
• Dann bedeutet m1 → 0 0 = m1 −
• Da in
i
i
i
fi g i .
f i g i ⇔ m1 =
i
fi g i .
f i g i irgendwo durch ein bestimmtes ctg α der Leitterm von m zu 0
gemacht wird (wobei natürlich LT (m ) = LT (ctg α ) ), lässt sich dieses aus der
Summe herausziehen: m1 =
i
+ ctg α .
fi g i
jetzt ohne den Summanden ctg α
• also: m1 − ctg α =
i
fi g i
jetzt ohne den Summanden ctg α
• Dass LT (m ) > LT (f i g i ) für alle fi g i in dieser Summe, ist offensichtlich.
• Proposition 2.2.8:
• Ergänzung zum Beweis ‘ A 2
C 2 ’:
• Angenommen, es gibt ein m ∈ M , dass ungleich 0 ist und trotzdem irreduzibel ist.
G
• Der Widerspruch ist m → m ′ , obwohl m irreduzibel angenommen wurde.
• Ergänzung
zum
Beweis
‘ C1
G
m ∈ M \ {0} m → 0
C1
m=
2.2.6.c )
i
A 2 ’:
f i g i ∧ LT (m ) = max LT {f i g i }
i
2.3 Syzygies
• Proposition 2.3.6:
• Diese recht abstrakt scheinende Proposition hat folgende Aussagen:
Page:
40
• LT λ (f1, , f s )
≤ degG ((f1, , fs )) : klar, denn:
=m
• λ((f1, , fs )) = f1g 1 + + f s g s
• degG ((f1, , f s )) = max {LT (f i g i )}
1≤ i ≤s
• Es ist offensichtlich, dass LT (f1g 1 +
• LT (λ((f1, , fs ))) < degG ((f1, , f s )) :
• bedeutet,
LT (f1g 1 + + fs g s ) < max{LT (f i g i )}
1≤ i ≤ s
+ f s g s ) ≤ max{LT (f i g i )} .
1≤ i ≤s
=
für ein oder mehrere 1≤ k ≤s
LT (f k g k ) = LT (f k ) ⋅ LT (g k )
dass
• Das wiederum bedeutet, dass sich in f1g 1 + + fs g s der größte Term wegkürzt,
also der Term LT(f k ) ⋅ LT(g k ) . (Dazu muss es natürlich mindestens 2 solcher k-s
geben, damit sich die Koeffizienten zu 0 addieren können.)
• Also ist LF(f1g 1 + + f s g s ) , also der Vektor aus den L M(f k ) dieser k-s, eine
Syzygie für (LM(g 1 ), ,LM(g s )) , weil sich – wie gesagt – die Koeffizienten zu 0
addieren.
• LT (λ((f1, , f s ))) = degG ((f1, , fs )) :
• Hier kürzt sich der größte Term also nicht weg.
• Also
ist
Λ (LF((f1, , fs ))) =
LM(f k ) ⋅ LM(g k ) = LT (f1g 1 + + f s g s ) = LT (λ((f1, , fs ))) .
k - s von eben
• Ist (f1, , fs ) ∈ Syz (G ) , dann ist auch LF(f1, , fs ) ∈ Syz (LM(G )) , weil:
• f1g 1 + + f s g s = 0
• Insbesondere addieren sich die Koeffizienten des größten Terms zu 0.
• Also ist LF(f1, , fs ) ∈ Syz(LM(G )) , denn nur LF(f1, , fs ) ist verantwortlich für das
0-Werden des größten Terms von f1g 1 + + fs g s
• Proposition 2.3.11:
• Ergänzung zum Beweis:
• Angenommen, es gibt m-s in Syz(G ) , die nicht als Linearkombination der mi -s
dargestellt werden können. Wähle ein kleinstes m.
• Weil (m1, , m t ) Syz(LM(G )) erzeugt und LF(m ) ∈ Syz(LM(G )) (weil LF(m ) für das
0-Werden der Leitmonome von einigen g i -s verantwortlich ist und weil
m ∈ Syz(G ) , d. h. insbesondere diese Leitmonome werden auch tatsächlich 0),,
besitzt LF(m ) eine Darstellung LF(m ) = c j t j mi j .
• Dann ist m′ := m −
c j t j mi j
dargestelt werden.
• Dann aber auch m := m′ +
kleiner als m und kann somit mit
(m1,
, mt )
c j t j mi j . Widerspruch.
• Proposition 2.3.12:
• Ergänzung zum Beweis:
• A2
D1 :
• Sei f ∈ Syz(LM(G )) homogen. Zu zeigen: Es gibt eine Liftung für f in Syz(G ) .
()
• Bilde λ f = f1g1 +
+ fS g S .
Page:
41
()
• Falls λ f = 0 ist f ∈ Syz (G ) und f ist seine eigene Liftung.
()
λ (f ) ∈ M
• Sei also λ f ≠ 0 .
• Wegen
()
λ f = h1g1 +
gibt
es
nach
eine
A2
(weitere)
Darstellung
+ hS g S .
()
• Also λ f = f1g 1 + + fS g S = h1g1 + + hS g S ⇔ (f1 − h1 )g1 + + (fS − hs )g S = 0 ,
d. h. ((f1 − h1 ), , (fS − hs )) ∈ Syz(G ) .
• Wegen
degG h
=
LT(h1g1 + + hS g S ) = LT(f1g1 + + fS g S )
()
wegen Voraussetzung A 2 :
LT (h1g1 + + hS gS )=max {hi g i }= degG h
()
1≤ i ≤ s
<
weil f ∈Syz (LM(G )),
siehe auch Proposition 2.3.6.b
(
)
degG (m )
()
ist LF f − h = LF f
=
f .
weil f ∈Syz (LM(G ))
• Also ist f − h die gesuchte Liftung von f in Syz(G ) .
• D1
A2 :
• Sei m ∈ M = g1, , g s . Angenommen, es gibt keine Darstellung von m mit
m=
s
i =1
fi g i ∧ LT (m ) = max{LT (fi g i )} .
• Da die g i -s ein Erzeugendensystem bilden, gibt es aber auf jeden Fall eine
s
Darstellung m =
i =1
fi g i . Also liegt das Problem bei LT (m ) = max{LT(fi g i )}.
• Wähle unter allen Darstellung m =
s
i =1
()
fi g i eine, so dass degG f minimal ist.
• Wegen LT (m ) ≤ max{LT(fi g i )}, folgt, dass wegen der Widerspruchs-Annahme
LT(m ) < max{LT(fi g i )} sein muss.
()
• Dann ist jedoch LF f ∈ Syz (LM(G )) (nach Proposition 2.3.6.b).
()
• Nach Voraussetzung D1 gibt es nun eine Liftung f ′ von LF f
( )
(f ).
()
in Syz(G ) .
(Liftung bedeutet – wie immer – LF f ′ = LF f .)
(
)
• Deswegen ist degG f − f ′ < degG
• Nach Wahl von f dürfte f − f ′ keine Darstellung m =
s
i =1
• Tut es aber:
s
i =1
(fi
− fi ′)g i =
s
i =1
fi g i −
s
i =1
fi ′g i
=
s
i =1
(fi
− fi ′)g i erlauben.
fi g i = m . Widerspruch.
=0, weil f ′∈Syz (G )
2.4 Gröbner Bases of
Ideals and Modules
2.4.2 Normal Forms
Page:
42
• Proposition 2.4.10.d):
• Supp(NFN (m )) ∩ LT{N} = { } , weil: Gäbe es in NFN (m ) noch einen Term, der in
LT{N} = (LT(h1 ), , LT(ht )) liegt, so wäre dieser Term ein Vielfaches des Leitterms
eines hi ’s und der Divisionsalgorithmus zur Berechnung der Normalform hätte noch
nicht gestoppt.
• NFN (m ) ∈ M , denn m = f1h1 + + f t ht + NFN (m ) ⇔ NFN (m ) = m − (f1h1 + + f t ht )
∈M
• Wegen Supp(NFN (m )) ∩ LT{M } = { } ist NFN (m ) irreduzibel bzgl.
G
• Wegen C 2 : n ∈ M irreduzibel bzgl. →
∈N
(g1 ,
∈M , denn N ⊆ M
∈M
,g s )
→ .
n = 0 (Kapitel 2.2) folgt n := NFN (m ) = 0 .
∈M
• Also m = f1h1 +
+ f t ht +
∈N
0
=NFN (m )
.
∈N
2.5
Algorithm
Buchberger’s
• Proposition 2.5.2:
• Der Beweis ist dem von ‘Proposition 2.3.12, A 2
D1 sehr ähnlich.:
• Zu zeigen: Es gibt eine Liftung für σ ij ∈ Syz(LM(G )) in Syz(G ) .
• Bilde
0
S ij = λ(σ ij ) = λ
0
1
t ij
ci
0
0
1
− t ji
cj
0
.
0
= 0g 1 +
+ 0g i −1 +
1
t ij g i + 0g i +1 +
ci
+ 0g j −1 + −
1
t ji g j + 0g j +1 +
cj
+ 0g s
• Falls λ(σ ij ) = 0 ist σ ij ∈ Syz(G ) und σ ij ist seine eigene Liftung.
• Sei also λ(σ ij ) ≠ 0 .
• Weil G eine Gröbner-Basis ist und S ij = λ(σ ij )→ 0
G
eine (weitere) Darstellung λ(σ ij ) = h1g 1 +
λ(σ ij ) ∈ M gibt es nach A 2
+ hS g S .
Page:
43
• Also
λ(σ ij ) = 0g 1 +
= h1g 1 +
+ 0g i −1 +
1
t ij g i + 0g i +1 +
ci
+ 0g j −1 + −
1
t ji g j + 0g j +1 +
cj
+ 0g s
+ hS g S
⇔ (− h1 )g 1 +
+ (− hi −1 )g i −1 +
+ (− h j −1 )g j −1 + −
(
)
,
1
t ij − hi g i + (− hi +1 )g i +1 +
ci
1
t ji − h j g j + (− h j +1 )g j +1 +
cj
+ (− hs )g s = 0
d. h. σ ij − h ∈ Syz(G ) .
• Wegen
degG h
()
=
wegen Voraussetzung A 2 :
LT (h1g1 + + hS gS )=max {hi g i }= degG h
+ 0g i −1 +
<
weil ij ∈Syz (LM(G )),
siehe auch Proposition 2.3.6.b
(
+ hS g S )
()
1≤ i ≤ s
= LT 0g 1 +
LT (h1g 1 +
1
t ij g i + 0g i +1 +
ci
+ 0g j −1 + −
degG (σ ij )
)
ist LF σ ij − h = LF(σ ij )
=
1
t ji g j + 0g j +1 +
cj
+ 0g s
σ ij .
weil σ ij ∈Syz (LM(G ))
• Also ist σ ij − h die gesuchte Liftung von σij in Syz(G ) .
3.2
Elementary
Operations on Modules
• Proposition 3.2.15:
• Beweis von a):
• N :P M = {r ∈ R r ⋅ M ⊆ N }
•
s
(N :
i =1
P
gi
) = {r ∈ R r ⋅
s
i =1
gi ⊆ N
}
• also zu zeigen {r ∈ R r ⋅ M ⊆ N } =
{r ∈ R r ⋅ g
s
i =1
⊆N
i
}
• ‘ ⊆ ’:
• Seien g i′ ∈ g i für beliebiges i und r ∈ {r ∈ R r ⋅ M ⊆ N }.
• Da auch g i′ ∈ M , ist rg i′ ⊆ N , also (weil i beliebig war) r ∈
• ‘ ⊇ ’:
• Seien m = f1g1 +
• Dann
ist
+ fs g s und r ∈
rm =
s
{r ∈ R r ⋅ g
i =1
+
r f1g1
∈ g1
{
∈N , weil r ∈ r ∈R r ⋅ g1 ⊆ N
i
s
{r ∈ R r ⋅ g
i =1
i
}
⊆N .
}
⊆N .
+
∈N ,
r fs g s
also
∈gs
}
{
∈N , weil r ∈ r ∈R r ⋅ gs ⊆ N
}
Page:
44
r ∈ {r ∈ R r ⋅ M ⊆ N }.
• Proposition 3.2.22:
• Der Beweis verläuft analog zum Beweis von 3.2.15.
3.4 Elimination
• Theorem 3.4.5:
• Beweis:
• ‘ ⊆ ’: tei ∈ LTσˆ M ∩ Pˆ r
(
)
tei ∈ LTσ (M ) ∧ tei ∈ Pˆ r
(
⊇ LTσˆ M ∩ Pˆ r
• ‘ ⊇ ’:
tei ∈ LTσ (M ) ∩ Pˆ
(
LTσˆ M ∩ Pˆ
r
)
tei ∈ LTσ (M ) ∧ tei ∈ Pˆ r
)
3.5
Localization
Saturation
LTσ (M ) ∩ Pˆ
∃g i ∈ Pˆ r : tei = LTσ r (g i )
da σ Eliminatio nsordnung
and
• Proposition 3.5.12:
• Beweis:
• ‘ ⊆ ’:
v ∈ N :M I ∞ ∩ N :M J ∞ ⇔ ∃i , j : I i v ⊆ N ∧ J j v ⊆ N
(
) (
)
⇔ ∃i , j : f i v ∈ N ∧ g j v ∈ N∀f ∈ I, g ∈ J
v ∈ N :M (I + J )
wobei
die
(f + g )i + j v
=
(f + g )i + j v ∈ N∀f ∈ I, g ∈ J ,
∞
letzte
f i + j g 0v + f i + j −1g 1v +
bis auf Konstanten
bei den Summanden
( )
∈N wegen f k f i v ∈N für 1≤ k ≤ j
+
Folgerung
f i g jv +
offensichtlich ∈N
gilt,
weil
+ f 1g i + j −1v + f 0 g i + j v
( )
∈N wegen g k g i v ∈N für 1≤ k ≤ j
∈N
∈N
• ‘ ⊇ ’:
v ∈ N :M (I + J ) ⇔ ∃k : (I + J ) v ⊆ N ⇔ ∃k : (f + g ) v ∈ N∀f ∈ I, g ∈ J
∞
k
k
f +0
k
v ∈N ∧ 0 + g
∈J
(
k
v ∈ N :M I
∈I
∞
) ∩ (N :
M
J∞
v ∈ N∀f ∈ I, g ∈ J
f k v ∈ N ∧ g k v ∈ N∀f ∈ I, g ∈ J
)
Page:
45
Remarks
Der erste Teil dieser Datei bezieht sich auf die ‘Computanional Commutative Algebra 1
(Algebra 2)’-Vorlesung von Prof. Martin Kreuzer im Sommersemester 2004. Zu dieser
Vorlesung gibt es eine Fotoreihe der Tafeln (Dateien: University; Computational
Commutative Algebra 1 (Algebra 2); SS 2004; *).
Der zweite Teil dieser Datei bezieht sich auf das Buch ‘Computanional Commutative
Algebra 1’ von Martin Kreuzer und Lorenzo Robbiano (Version vom 2000-07-03).
Außerdem gibt es eine weitere Datei ‘University; Algebra 1 (basics), Computational
Commutative Algebra 1; Overview’, welche eine Übersicht über die Grundlagen der
‘Algebra 1’-Vorlesung von Prof. Martin Kreuzer im Wintersemester 2003/2004 und über die
‘Computanional Commutative Algebra 1 (Algebra 2)’-Vorlesung von Prof. Martin Kreuzer
im Sommersemester 2004 und das Buch ‘Computanional Commutative Algebra 1’ von
Martin Kreuzer und Lorenzo Robbiano (Version vom 2000-07-03) enthält.
http://www.TL-Software.de.tf
[email protected]
Thomas Leopold,
2004-10-13
Page:
46