Säsongrensning gen handledning

Transcription

Säsongrensning gen handledning
Säsongrensning –en handledning
Mikael Möller
hösten 1982
reviderad hösten 2006
Innehåll
1 Förord
2
2 Inledning
2.1 Beteckningar och hänvisningssystem . . . . . . . . . . . . . . . .
2.2 Modeller och modellantaganden . . . . . . . . . . . . . . . . . . .
3
3
3
3 Linjära …lter
3.1 De…nitioner och beteckningar . . . . . . . . . . . . . .
3.2 Di¤erensekvationer . . . . . . . . . . . . . . . . . . . .
3.3 Egenskaper hos linjära …lter . . . . . . . . . . . . . . .
3.3.1 Funktioner som avbildas på 0 . . . . . . . . . .
3.3.2 Funktioner som avbildas på sig själva . . . . .
3.4 E¤ekter på slumpkomponenten –periodicitetsmönster
3.4.1 Förväntad period . . . . . . . . . . . . . . . . .
3.5 Slutskys sats . . . . . . . . . . . . . . . . . . . . . . .
3.6 Hur linjära …lter konstrueras . . . . . . . . . . . . . .
3.7 Slutsatser . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
6
7
9
10
12
13
14
18
22
26
4 Polynom…lter
28
4.1 Metod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Filtrering av tidsseriens ändar . . . . . . . . . . . . . . . . . . . . 30
5 Henderson …lter
33
5.1 Henderson-…ltret –konstruktion . . . . . . . . . . . . . . . . . . . 34
5.2 Henderson-…ltret –egenskaper . . . . . . . . . . . . . . . . . . . . 36
1
1
Förord
Föreliggande arbete är en bearbetning av de tre seminarier, om lineaär …ltrering,
som jag höll hösten 1982.
Seminarierna var en del av ett större projekt vars syfte är att sprida kunskap,
om den metod för säsongrensning som F-avdelningen på Statistiska centralbyrån
(SCB) har beslutat sig för, samt skapa programmeringsverktyg och dokumentation så att säsongrensningen skall kunna utföras av SCB:s handläggare.
Under arbetets gång har följande personer bidragit med stimulerande diskussioner: Christer Shapiro och Ed Palmer från konjunkturinstitutet, Alexander
Markowski från Riksbanken och Erik Andersson, Catharina El¤ors, Gunnar
Gehlin och Sta¤an Lewin alla från SCB.
Särskilt tack riktas till Christer Shapiro, som gjort nödvändiga program och
framställt de i texten ingående …gurerna.
Mikael Möller, hösten 1982
Handledningen har överförts till TEX varvid en del rättelser och förtydliganden gjorts.
Mikael Möller, hösten 2006
2
2
Inledning
Syftet med denna rapport är att ge nödvändig bakgrund för förståelsen av säsongrensningsmetoder i allmänhet och X11-ARIMA i synnerhet. Som en följd av
det senare kommer arbetet att inrikta sig på linjära …lter och deras egenskaper.
2.1
Beteckningar och hänvisningssystem
I denna rapport betecknar stora bokstäver stokastiska (slumpmässiga) element
och små bokstäver deterministiska element. I den additiva modellen nedan är
således ct och st deterministiska funktioner och It ett stokastiskt element eller
som man också säger en stokastisk variabel.
Rapporten delas upp i 5 kapitel och varje kapitel delas i sin tur upp i sektioner
(även undersektioner förekommer). Inom varje sektion numreras formler, satser,
de…nitioner m m i stigande ordning. Med hänvisningen (3.2.4) skall då förstås
kapitel 3, sektion 2 och undersektion 4.
2.2
Modeller och modellantaganden
Traditionellt delas tidsserier, vid säsongrensning, upp i tre komponenter: trendcykel, säsongsvariation och slumpmässig variation. Med dessa tre komponenter
kan en mångfald av olika modeller bildas. Men vanligen klarar man sig med
två modeller –den rent additiva och den rent multiplikativa modellen. Då den
senare övergår i den förra (inte helt sant men ofta tillräckligt för våra behov),
vid logaritmering, skall vi framöver endast betrakta den additiva modellen.
För tidsserien och dess komponenter inför vi följande beteckningar
Ot
ct
st
It
=
=
=
=
orginalserien vid tidpunkt t
trendcykeln vid tidpunkt t
säsongsvariationen vid tidpunkt t
slumpmässig variation vid tidpunkt t
och den additiva modellen kan då skrivas
(2.1)
Ot = ct + st + It
3
Grundproblematiken vid säsongrensning är att ur orginalserien
fOt g extrahera serierna fct g, fst g och fIt g.
Notera att denna exposé ej räknar med extrema händelser typ strejker,
rörliga heger m m. Utan här betecknar It endast "sann" slump som t ex de
slumpmässiga fel som uppstår vis stickprovstagning.
Den mer allmänna modellen
Ot = ct + st + dt + It00
(2.2)
där
dt
It00
pt
Et
=
=
=
=
arbetstidse¤ekt vid tidpunkt t
pt + Et + It
helg, semester, strejk m m e¤ekt vid tidpunkt t
oförklarligt extremvärde vid tidpunkt t
kommer ej att behandlas i denna handledning. Ej heller tar vi upp det fall då
trendcykeln och säsongsvariationen betraktas som stokastiska.
I vår additiva säsongrensningsmodell 2.1 skall vi antaga att It ; t 2 T är
oberoende normalfördelade stokastiska variabler med väntevärde 0 och standardavvikelse . Mängden T är en ändlig, eller oändlig, diskret indexmängd.
Ett förkortat skrivsätt för detta antagande är
It 2 ON (0; )
t2T
Vi antar att säsongvariationen, st , och trendcykeln, ct , är deterministiska funktioner beroende av tiden t.
Med säsongrensning skall vi nu ideallt förstå en metod som ur serien fOt g kan
plocka ut endera av de tre komponenterna fct g, fst g och fIt g. Detta uttrycker
vi med följande de…nition
De…nition 2.1 Med säsongrensning av serien
(2.3)
Ot = Ct + St + It
F1 (Ot ) = Ct
F2 (Ot ) = St
F3 (Ot ) = It
Att …nna dessa funktioner F1 , F2 och F3 är naturligtvis inte möjligt utan
istället får man inrikta sig på att …nna lämpliga approximationer. En första
vanlig approximation är att ersätta funktionen Fi med en linjär funktion Li och
antaga att
Fi (Ot ) Li (Ot ) ; i = 1; 2; 3 och t 2 T
En ytterligare approximation erhålls då alla funktioner Li antages vara lika. Ett
specialfall av denna senare approximation utgörs av linjära …lter. En klass av
funktioner som denna rapport skall titta på.
Vi har här varit relativt noga med att ange de approximationer och antaganden som görs vid säsongrensning. Förhoppningen är att den presumptive
4
användaren därigenom skall undvika en del av de fällor och fel som uppstår vid
det praktiska utnyttjandet av säsongrensningsmetoden X11-ARIMA. Ty som
vid all modellering gäller att data måste uppfylla modellens förutsättningar.
Användaren har därför skyldigheten att kontrollera om data uppfyller dessa,
här givna, förutsättningar.
5
3
Linjära …lter
3.1
De…nitioner och beteckningar
Nästan all säsongrensningsmetodik baserar sig på linjär …ltrering och vi skall
börja med att de…niera vad vi skall mena med ett linjärt …lter.
De…nition 3.1 Med ett linjärt …lter skall vi förstå en linjär funktion L sådan
att till varje följd fxt g det gäller
(3.1)
L (xt ) =
n
X
li xt
i
i=m
t 2 T0
T
för någon indexmängd T 0 och där talen li är reella och sådana att
P
li = 1.
Om m = n och li = l i så säges …ltret vara symmetriskt annars asymmetriskt. För symmetriska …lter har man infört följande beteckning
(3.2)
L= l
n ; l n+1 ; : : : ; l 1 ; l0
.
Om i ett godtyckligt …lter alla vikter är lika (li = lj för alla val av i och j)
skriver man
1
L=
[n m + 1]
n m+1
n
och i alla övriga fall: L = [li ]i=m .
Med hjälp av fasförskjutningsoperatorn B , vilken de…nieras av relationen
Bxt = xt 1 , kan formel 3.1 ovan skrivas
L (xt ) =
n
X
i=m
Pn
li xt
i
=
n
X
li B i xt = L (B) xt
i=m
där L (B) = i=m li B i . Operatorn L (B) skall vi kalla förskjutningspolynomet
hörande till …ltret L. Linjäritetsegenskaperna hos det linjära …ltret kan nu, med
hjälp av förskjutningspolynomet, skrivas
(3.3a)
(3.3b)
L (B) (xt + yt ) = L (B) xt + L (B) yt
L (B) axt = aL (B) xt
6
I föregående kapitel de…nierade vi säsongrensning som en metod att plocka fram
komponenterna ct , st och It . Ett annat sätt att utrycka detta är att säga att
säsongrensning är en metod att eliminera komponenterna ct , st och It . Ty
att plocka fram ct är detsamma som att eliminera st och It . Denna dualitet
ger att vi är intresserade av att undersöka ett lineärt …lter med avseende på
egenskaperna
(3.4a)
(3.4b)
L (B) xt
L (B) yt
= xt
= 0
eller alternativt konstruera ett …lter med dessa egenskaper. För denna undersökning/konstruktion behöver vi teorin för linjära di¤erensekvationer.
3.2
Di¤erensekvationer
Med en linjär di¤erensekvation, av ordning n och med reella konstanta koe¢ cienter a0 ; a1 ; : : : ; an menas en ekvation av formen
(3.5)
a0 xt + a1 xt
1
+
+ an xt
n
= yt
t 2 T0
där följden fyt g är känd. Om yt = 0 för alla t säges ekvationen vara homogen
annars icke-homogen.
Med hjälp av förskjutningsoperatorn kan denna ekvation skrivas
(3.6)
A (B) xt = yt
t 2 T0
där A (B) = a0 + a1 B +
+ an B n . Polynomet C (x) = xn A
karakteristiska polynomet hörande till ekvation 3.5 ovan.
1
x
kallas det
Sats 3.1 Den allmänna lösningen till ekvation 3.5 ovan kan skrivas
P
xt = xH
t + xt
P
där xH
t , ekvationens homogena lösning, och xt , ekvationens partikulära lösning,
uppfyller
A (B) xH
t
A (B) xP
t
= 0;
= yt :
Sats 3.1 ger oss en metod för att lösa di¤erensekvationer med konstanta
koe¢ cienter d v s om vi kan hitta den homogena respektive partikulära lösningen
så har vi också hittat lösningen till di¤erensekvationen. Man kan även visa att
det räcker med en partikulär lösning (vilken som helst).
Det …nns ingen allmän metod för att …nna den partikulära lösningen utan
man är hänvisad till diverse knep och sin egen matematiska intuition. Annat är
läget när det gäller den homogena lösningen och resten av detta avsnitt skall vi
ägna åt att …nna den homogena lösningen.
Om r1 ; r2 ; : : : ; rn betecknar nollställena till polynomet C (x) så kan detta
faktoruppdelas och vi har
C (x) = a0 (x
r1 ) (x
r2 )
(x
rn ) .
Observera att om något ri är komplext så …nns rj sådant att ri = rj ty koe¢ cienterna a0 ; a1 ; : : : ; an är reella.
7
Sats 3.2 Om varje nollställe till C (x) förekommer endast en gång så har differensekvationen
A (B) xt = 0
lösningen
xt = b1 r1t +
+ bn rnt
där konstanterna b1 ; b2 ; : : : ; bn bestämmes av begynnelsevillkoren, i allmänhet
värdena x0 ; x1 ; : : : ; xn 1 .
Bevis. Vi skall bevisa satsen medelst ett induktionsbevis.
1. Om n = 1 så gäller att
(1
r1 B) xt = 0 ) xt = r1 xt
1
= r12 xt
2
=
varav följer att
xt = x0 r1t = b1 r1t
2. Antag nu att satsen är sann då n = k och sätt zt = (1
erhålls
(1
r1 B) (1
r2 B) (1
(1 r1 B) (1
rk B) (1 rk+1 B) xt
r2 B) (1 rk B) zt
rk+1 B) xt då
= 0
= 0
varvid vi erhåller
zt = b01 r1t +
+ b0n rnt
ty satsen är sann då n = k. Vi har nu ekvationen
rk+1 B) xt = b01 r1t +
(1
+ b0n rnt
och den har den partikulära lösningen
xP
t
bi
= b1 r1t +
+ bn rnt ,
b0i ri
i = 1; 2; : : : ; k.
=
ri rk+1
Detta följer av
(1
rk+1 B)
k
X
bi rit
k
X
=
i=1
rk+1 bi rit
bi rit
1
i=1
k
X
=
bi rit
1
(ri
rk+1 )
i=1
k
X
=
i=1
b01 r1t
=
b0i ri
rt
ri rk+1 i
+
1
(ri
rk+1 )
+ b0k rkt .
Den homogena lösningen blir
t
xH
t = bk+1 rk+1
och vi har
H
t
xt = xP
t + xt = b1 r1 +
8
t
+ bn rnt + bk+1 rk+1
.
3. Induktionsprincipen ger nu påståendet
Återstår att betrakta det fall då det karakteristiska polynomet C (x) har
multipla nollställen. Vi börjar med endast ett dubbel-nollställe –r1 = r2 .
Låt först r2 vara ett nollställe som ligger på avståndet från r1 . Vi har
således att r2 = r1 + samt att uttrycket
t
r1t
(r1 + )
är en lösning till A (B) xt = 0 för alla : Härav följer att
t
lim
(r1 + )
!0
r1t
= tr1t
1
också är en lösning till A (B) xt = 0 när vi har ett dubbelt nollställe.
Den fullständiga lösningen vid ett dubbel-nollställe kan därför skrivas
xt = (b1 + b11 t) r1t +
t
+ bk rkt + bk+1 rk+1
vilket låter sig generaliseras till följande allmänna sats.
Sats 3.3 Den allmänna lösningen till di¤ erensekvationen A (B) xt = 0 är
0
1
mi
m
m
X
X
X
jA t
@
xt =
bij t ri
mi = n
i=1
j=0
i=1
där r1 ; r2 ; : : : ; rn är nollställen till det karakteristiska polynomet C (x). Vardera
av multiplicitet mi .
3.3
Egenskaper hos linjära …lter
I nästan alla säsongrensningsprogram, och speciellt X11-ARIMA, …ltreras den
betraktade tidsserien ‡era gånger med olika linjära …lter. Resultatet av dessa
operationer är ett nytt linjärt …lter –ty vi har följande sats.
Sats 3.4 Om L1 och L2 är två linjära …lter så blir …ltret
L3 = L1 (L2 ) = L2 (L1 )
också linjärt.
Bevis. Vi har
yt
zt
= L1 (xt ) = L1 (B) xt ,
= L2 (yt ) = L2 (B) yt .
varav
zt = L2 (B) yt = L2 (B) L1 (B) xt = L3 (B) xt
9
där
L3 (B)
X
=
l1;i B i
i
XX
=
i
l1;i l2;j B i+j
j
=
l1;i l2;k
i
i
k
X
l2;j B j
j
X X
=
X
!
Bk
l3;k B k
k
där
P
k l3;k
=
P
i l1;i l2;k i .
I X11-ARIMA …nns två centrala …lter dels det centrerade 12-månaders …ltret
och dels Henderson…ltret. Det senare …ltret är relativt komplicerat så det får ett
eget avsnitt i kapitel 5 på sid 33. Däremot är det centrerade 12-månaders…ltret
lätt att räkna på och därför skall vi ta det som genomgående exempel i detta
avsnitt.
Det centrerade 12-månaders…ltret de…nieras av sammansättningen av de två
1
…ltren L1 = 12
[12] och L2 = 12 [2]. Det resulterande …ltret
(3.7)
L3 =
1
1
[12] [2] =
[1; 2; 2; 2; 2; 2; 2]
24
24
är symmetriskt. Beviset härför överlåtes på läsaren.
3.3.1
Funktioner som avbildas på 0
De funktioner som det linjära …ltret L avbildar på noll är de funktioner xt som
ingår i den homogena lösningen till
L (B) xt = 0.
Exempel 3.1 För …ltret L =
xt
6
+ 2xt
5
1
24
+ 2xt
4
[1; 2; 2; 2; 2; 2; 2] erhålls di¤ erensekvationen
+
+ 2xt+4 + 2xt+5 + xt+6 = 0
vars karakteristiska ekvation är
x12 + 2x11 + 2x10 +
+ 2x2 + 2x + 1 = 0.
Ekvationen synes hopplös att lösa men med följande observation erhålls de 12
rötterna lätt:
x12 + 2x11 + 2x10 +
+ 2x2 + 2x + 1 =
(1 + x) 1 x12
1 x
x 6= 1.
Det gäller nu att …nna lösningarna till den betydligt enklare binomiska ekvationen 1 x12 = 0 samt att utesluta lösningen x = 1. Detta ger oss 11 rötter och
10
den 12:te är självklart x =
xH
t
1. På så sätt erhålls den homogena lösningen till1
t
=
(b1 + b2 t) ( 1) +
11
X
bk+2 ek
i=6
bk+2 ek
it=6
t
k=1
k6=6
t
=
(b1 + b2 t) ( 1) +
5
X
+ b13
ke
k it=6
k=1
t
=
(b1 + b2 t) ( 1) +
5
X
fk (t)
k=1
där funktionerna fk (t) är periodiska med följande perioder
k
1
2
3
4
5
Funktion fk (t)
b3 et i=6 + b12 e
b4 et i=3 + b11 e
b5 et i=2 + b10 e
b6 et2 i=3 + b9 e
b7 et5 i=6 + b8 e
t i=6
t i=3
t i=2
t2 i=3
t5 i=6
Period
12
6
4
6
12
Detta innebär att …ltret släcker en i ekonomiska sammanhang ointressant funktion, alternerande lineär, men också att …ltret tar bort alla svängningar av period
12 (månader), 6 (halvår) och 4 (kvartal) samt kombinationer av dessa. Detta är
mycket intressanta inom ekonomiska sammanhang ty om man kan ta bort e¤ ekterna av normala ekonomiska svängningar så återstår endast det som betecknas
irreguljärt och den delen är intressant att studera för att se om något hänt, om
teorin inte stämmer, om det …nns mer struktur o s v.
Några exempel på periodiska funktioner som avbildas på noll ges i …gurerna
nedan:2
y
1.0
y
0.5
1.0
0.5
0.0
0.0
5
10
15
20
5
x
-0.5
-0.5
-1.0
-1.0
1 För
10
k = 6 erhålls 1 och den …nns redan i det lineära uttrycket till vänster.
som avbildas på 0 är:
2 Funktionerna
1. sin
3
t ,
2. sin
6
t ,
3. 2 + sin
4. sin
2p
t
12
p
t
6
1 + sin
+ sin
p
t
3
2p(t 3)
6
+4
0:5 sin
+ sin
2p(t+1)
4
p
t
2
11
,
15
20
x
y
y4
4
3
3
2
2
1
1
0
0
2
4
6
8
0
10 12 14 16 18 20 22 24
x
2
4
6
8
10 12 14 16 18 20 22 24
Det går som synes att avbilda en stor mängd av periodiska funktioner på
noll och eftersom periodiciteter är allmänt förekommande i ekonomiska tidsserier
är det inte svårt att förstå varför lineär …ltrering är användbart för att förstå
just ekonomiska tidsserier. Det …nns dock en baksida – vad händer med de
funktioner som inte avbildas på noll. Vi skall nu först studera de funktioner
som …ltret avbildar på sig själva d v s de funktioner som …ltret släpper igenom
ograverade.
3.3.2
Funktioner som avbildas på sig själva
De funktioner som avbildas på sig själva är de som är lösningar till di¤erensekvationen
L (B) xt = xt .
Denna ekvation är en maskerad homogen di¤erensekvation ty det gäller
(L (B)
Exempel 3.2 För …ltret L =
xt
6
+ 2xt
5
+ 2xt
1
24
4
1) xt = 0.
[1; 2; 2; 2; 2; 2; 2] erhålls di¤ erensekvationen
+
+ 2xt+4 + 2xt+5 + xt+6 = 24xt
vars karakteristiska ekvation blir
x12 + 2x11 + 2x10 +
+ 2x7
22x6 + 2x5 +
Medelst faktorisering erhålls faktorn (1
+ 2x2 + 2x + 1 = 0.
2
x) och faktorn
1 + 4x + 9x2 + 16x3 + 25x4 + 36x5 + 25x6 + 16x7 + 9x8 + 4x9 + x10 = 0.
Den första faktorn ger oss rötterna r1 = r2 = 1 och det återstår att lösa ekvationen
1 + 4x + 9x2 + 16x3 + 25x4 + 36x5 + 25x6 + 16x7 + 9x8 + 4x9 + x10 = 0
för att …nna rötterna r3 ; : : : ; r12 . Vi gör detta numeriskt och erhåller då lösningen på formen
12
X
xt = (b1 + b2 t) +
bk rkt .
k=3
12
x
I tabellen nedan anger vi värdena på rk och deras absoluta belopp:
k
1,2
3
4
5
6
7
8
9
10
11
12
rk
1
2:033
0:492
1:157 + 1:466i
1:157 1:466i
0:542 + 1:518i
0:542 1:518i
0:209 + 0:584i
0:209 0:584i
0:332 + 0:420i
0:332 0:420i
jrk j
2:033
0:492
1:868
f1 (t)
1:612
f2 (t)
0:9998
f3 (t)
0:535
f4 (t)
Lösningen xt innehåller således linjära trender (rötterna 1 och 2), explosiva tillskott (rötterna 3, 5, 6, 7 och 8) samt snabbt avtagande funktioner (rötterna
4, 9, 10, 11 och 12). Detta är dels glädjande ty …ltret släpper igenom linjära
trender (vanligt förekommande i ekonomiska tidsserier) och dels brydsamt eftersom ingen, av mig, känd ekonomisk teori ger upphov till de andra funktionerna.
Avslutningsvis ger vi …gurerna för de fyra funktionerna f1 -f4 :
y
2e+6
y
40000
20000
0
0
5
10
15
20
5
-20000
x
10
15
20
x
-40000
-2e+6
-60000
-4e+6
-80000
-6e+6
-1.2e+5
-1e+5
Funktionen f1 .
y
Funktionen f2 .
2.0
y
2.0
1.5
1.5
1.0
1.0
0.5
0.5
0.0
0.0
5
5
10
15
-0.5
20
x
Funktionen f3 .
3.4
10
15
-0.5
20
x
Funktionen f4 .
E¤ekter på slumpkomponenten –periodicitetsmönster
Vi skall nu undersöka vad som händer när vi …ltrerar en slumpmässig serie
fIt g med ett linjärt …lter L. Om serien fIt g skall vi antaga att de stokastiska
elementen It ; t 2 T är oberoende och normalfördelade med väntevärdet 0 och
13
variansen
2
. Den …ltrerade serien betecknar vi med fYt g och det gäller
Yt = L (It ) =
n
X
li It
i
i=m
samt att
(3.8a)
(3.8b)
E (Yt )
k
= 0
= E (Yt Yt+k )
0
n
X
= E@
li It
i
i=m
=
n
X
n
X
n
X
lj It+k
j
j=m
li lj E (It i It+k
1
A
j)
i=m j=m
ft
i=t+k
jg =
X
2
l i lj =
i+j=k
i;j=m;:::;n
(3.8c)
=
2
n
X
li lk
2
n X
n
X
l i lj
i=m j=m
i+j=k
i
i=m
där den sista likheten följer av antagandet om oberoende och att E (It ) = 0.
Processen fYt g:s kovariansfunktion beror således endast av k och ej av t. Härav
följer att processen är kovariansstationär. Speciellt har vi att fYt g är en "moving
average"-process av ordning n m och detta betecknas
Yt 2 M A (n
m) .
I …gurerna nedan beskriver den första kurvan processen fIt g (vitt brus) och
den andra den …ltrerade processen fYt g. Det …lter som har använts här är
1
[2] [12].
L = 24
y
y
4
4
3
3
2
2
1
1
0
0
20 40 60 80 100 120 140 160 180 200 220 240 260 280 300 320 340 360
20 40 60 80 100 120 140 160 180 200 220 240 260 280 300 320 340
x
x
Vitt brus
3.4.1
Filtrerat vitt brus
Förväntad period
De två …gurerna indikerar att en linjär …ltrering kan ge upphov till mönstret
där inga fanns från början. Denna periodicitets natur skall vi nu utreda. Först
de…nierar vi begrepppet period hos en kovariansstationär stokastisk process.
Det …nns ‡era olika sätt och vi väljer följande:
14
De…nition 3.2 Perioden för en kovariansstationär stokastisk process med väntevärde noll de…nieras av avståndet mellan processens uppkorsningar. En uppkorsning de…nieras av att den stokastiska processen byter tecken från minus till
plus.
Perioden för en stokastisk process är naturligtvis inte ett deterministiskt
tal utan en stokastisk variabel och vi skall bestämma dess förväntade värde.
Beteckna perioden med P .
Inför hjälpvariabeln Zt som kontrollerar om en uppkorsning sker i intervallet
(t; t + 1] samt hjälpvariabeln Na som räknar antalet uppkorsningar i intervallet
(0; a 1] (t och a antar här heltalsvärden men det går att göra det mer allmänt).
Detta ger oss följande de…nitioner av Zt och Na :
Zt
=
Na
=
1 Yt < 0; Yt+1 > 0
,
0
annars
a
X1
Zt .
t=0
I intervallet (0; a 1] sker Na uppkorsningar och avståndet mellan den i:te och
i + 1:a uppkorsningen betecknar vi med Pi . Detta Pi är den i:te mätningen
på den stokastiska variabeln P , processens period. Vi bildar nu följande två
stokastiska variabler:
a
= genomsnittlig längd mellan uppkorsningar i intervallet
Na
(0,a-1] + lite skräp i ändarna
1
Na
1
NX
a 1
Pi
= genomsnittlig periodlängd i intervallet (0,a-1]
i=1
Av …guren nedan indikeras att dessa två variabler är approximativt lika samt
att approximationen blir bättre när a ! 1.
Således gäller sambandet
(3.9)
NX
a 1
a
1
= lim
Pi .
a!1 Na
a!1 Na
1 i=1
lim
15
Väntevärdet av högerledet i (3.9) erhålls till
!
NX
a 1
1
E lim
Pi
= lim E
a!1 Na
a!1
1 i=1
=
=
=
lim E
a!1
lim E
a!1
1
Na
1
NX
a 1
1
E
Na
1
Na
1
Pi
i=1
1
!
NX
a 1
NX
a 1
i=1
i=1
Pi j N a
!!
!
E (Pi j Na )
lim E (E (P )) = E (P )
a!1
Vi har därmed lyckats få en likhet mellan det vi söker, E (P ), och något som vi
förhoppningsvis kan beräkna. Med hjälp av Gauss approximationsformel erhålls
nu (observera a ej är stokastisk)
a
a!1 Na
E (P ) = E
lim
= lim E
a!1
a
Na
a
.
a!1 E (Na )
lim
Återstår att beräkna
E (Na )
= E
a
X1
t=0
=
a
X1
Zt
!
=
a
X1
E (Zt )
t=0
P (Yt < 0; Yt+1 > 0)
t=0
=
a
X1
P (Y0 < 0; Y1 > 0)
t=0
= aP (Y0 < 0; Y1 > 0)
där vi i steg 3 utnyttjat att processen fYt g är en normalprocess. Närmare
bestämt har vi utnyttjat att en kovariansstationär normalprocess är stationär.
Problemet är nu reducerat till att bestämma P (Y0 < 0; Y1 > 0).
För att bestämma denna sannolikhet betraktar vi täthetsfunktionen för vektorn (Im ; : : : ; In+1 )
dF =
(n m+2)=2
1
2
e
2
Pn
2
i=m xi
2 2
dxm
dxn+1 .
I denna funktions de…nitionsområde avgränsar händelsen (Y0 < 0; Y1 > 0) ett
område som bestäms av de två planen
n
X
li yi
=
0,
li yi+1
=
0.
i=m
n
X
i=m
För att få en inblick i vad som sker görs räkningarna först för fallet n = m = 0.
16
Detta
gäller
om
E (Pi jNa ) =
E (Pi )
vilket
inte
allmännt är
sannt ty ej
oberoende.
Palmsannolikheter?
Variant av
stora talens
lag?
De två planen ovan kan nu skrivas l0 y0 = 0 och l0 y1 = 0. Området som
avgränsas, l0 y0 < 0 och l0 y1 > 0, är då det streckade området i …guren nedanVi
observerar att vinkeln v mellan de två planen kan erhållas på följande sätt.
Planens normalvektorer n1 och n2 erhålls till
n1 = (l0 ; 0) och n2 = (0; l0 )
och för dessa gäller
cos (v) =
(n1 ; n2 )
=0
jn1 j jn2 j
vilket naturligtvis ger, som väntat, v = =2 (90 ). En …gur över täthetsfunktionen ses nedan
och då denna är symmetrisk ser vi nu att
P (Y0 < 0; Y1 > 0) =
1
=2
=
.
4
2
I det allmänna fallet resonerar vi på följande sätt. De två planen skär ut en
"tårtbit" ur täthetsfunktionens de…nitionsområde och eftersom funktionen är
symmetrisk blir sannolikheten för att hamna i denna "tårtbit" densamma som
"tårtbitens" vinkel delat med 2 (360 ). Om vi betecknar denna vinkel med v
erhålls
v
P (Y0 < 0; Y1 > 0) =
.
2
17
Vinkeln v mellan de två planen är densamma som vinkeln mellan planens normaler. Dessa normaler är
n1 = (lm ; : : : ; ln ; 0) och n2 = (0; lm ; : : : ; ln )
och för dessa gäller
cos (v)
(n1 ; n2 )
jn1 j jn2 j
Pn 1
i=m li li+1
P
n
2 .
i=m li
=
=
Detta ger nu den av oss sökta formeln på förväntad period till
2
E (P )
Pn 1
i=m li li+1
P
n
2
i=m li
arccos
3.5
.
Slutskys sats
Linjär …ltrering av en vitt brus process fIt g kan skapa mönster där inga ursprungligen fanns. Detta är en mycket dålig egenskap hos linjära …lter men
lyckligtvis kan man ofta minska e¤ekten av den, mer om det senare. Här skall
vi istället besvara frågan: Hur periodisk kan den …ltrerade vitt brus processen
bli? Svaret på denna fråga ges av Slutsky:s sats, men innan vi går in på denna
måste vi införa en del ny matematik.
De…nition 3.3 Med en talföljd fai g:s z-transform skall vi mena funktionen
A (z) =
1
X
ak z k
k= 1
där z är ett godtyckligt komplext tal. Om z = eiv så skriver vi
A (v) =
1
X
ak eikv .
k= 1
n
Hitills har vi alltid betraktat ändliga linjära …lter L = [li ]i=m men för att
1
få enklare beteckningar skall vi utvidga dem till L = [li ]i=1 . Det är då underförstått att om L är ändligt så är li = 0 för i = m 1; m 2; : : : och
i = n + 1; n + 2; : : :.
Med den …ltrerade serien fYt g:s spektraltäthet skall vi förstå funktionen
1
X
R (v) =
E (Yt Yt+k ) eikv =
k= 1
1
X
ikv
.
ke
k= 1
Med hjälp av formel (3.8b) …nner man att för en M A (1)-process gäller
(3.10) R (v)
=
1
X
1
X
lj l k
ikv
je
=
k= 1 j= 1
1
X
j= 1
= L (v) L ( v) = L (v) L (v)
2
= jL (v)j .
18
lj eijv
1
X
k= 1
lk
i(k j)v
je
Ur detta samband mellan spektraltätheten och …lterfunktionen följer att även
den förra är symmetrisk ty
(3.11)
R (v) = L (v) L ( v) = L ( ( v)) L ( v) = R ( v) .
Denna egenskap ger att spektraltätheten även kan skrivas
R (v)
=
0
=
0
=
0
1
X
+
ikv
ke
k= 1
1
X
+
+2
ikv
ke
k=1
eikv + e
k
k=1
1
X
+
1
X
k
ikv
cos (kv)
k=1
vilket i sin tur ger sambandet
Z
cos (jv) R (v) dv
=
0
Z
cos (jv)
0
+2
0
=
1
X
k
cos (kv)
k=1
j
!
dv
varav
(3.12)
j
=
1
Z
cos (jv) dR (v)
0
där dR (v) = R (v) dv.
Slutligen behöver vi följande de…nition av en konvergenstyp:
De…nition 3.4 Den stokastiska följden fYt g säges konvergera i sannolikhet mot
Y om det till varje > 0 gäller att
lim (P jYt
t!1
Y j > ) = 0.
Denna typ av konvergens skriver vi: plimYt = Y .
Sats 3.5 (Slutsky 1937) Låt fIt g vara en vitt brus process och tag följande
två linjära …lter
L1 = [1; 1] och L2 = [1; 1]
samt bilda av dessa …ltret
Lnm = Ln1 (Lm
2 ).
Låt talen m och n närma sig oändligheten på ett sådant sätt att lim m
n =
0 < < 1. Då konvergerar
p
Ynm (t) = Lnm (It ) =
nm (0),
där
nm
(0) = V (Lnm (It )), i sannolikhet mot en sinuskurva med perioden
p=
2
arccos
19
1
1+
.
där
Bevis. Processen fLnm (It )g:s spektraltäthet erhålls med hjälp av (3.10) till
2
jLnm (v)j
1 + eiv
=
n
1+e
iv n
1
eiv
n
m
2 + eiv + e iv
2 eiv e iv
n
m
2n+m (1 + cos (v)) (1 cos (v))
v
v
= 22(n+m) cos2n
sin2m
.
2
2
=
=
1
e
iv m
m
Ekvation (3.12) ger nu att (se appendix)
Z
v
v
1 2(n+m)
cos2n
sin2m
2
nm (0) =
2
2
0
dv
22(n+m) (m + 1=2) (n + 1=2)
(m + n + 1)
n m
nm (1) =
nm (0)
m+n+1
m2 + n2 6mn n m
(2)
=
(0)
nm
nm
(m + n + 2) (m + n + 1)
p
där, med hjälp av Strilings formel, (x) = 2 e x xx+1=2 ean =12n ; 0 < an < 1.
Spektraltätheten till processen fYnm (t)g erhålls nu till
=
Rnm (v)
=
=
=
(m + n + 1)
v
v
cos2n
sin2m
(m + 1=2) (n + 1=2)
2
2
n m
2
(m + n + 1)
n
m
(1 + cos (v)) (1 cos (v))
(m + 1=2) (n + 1=2)
1
X
ikv
nm (k) e
k= 1
där nm (k) = nm (k) = nm (0). Denna funktion Rnm (v) har maximum då v =
arccos ((n m) = (n + m)) vilket man lätt övertygar sig om genom att beräkna
derivatan av ln Rnm (v) =konstant+n ln (1 + cos (v)) + m ln (1 cos (v)).
2n
2
m
+ x där n+m
< x < n+m
så erhålls med
Om vi nu sätter cos (v) = nn+m
hjälp av Stirlings formel att
r
m
n
p
m+n
m+n
(3.13)
Rnm (v)
1+x
.
m+n+1 1 x
2
2m
2n
Då x = 0 ser vi ur (3.13) att lim Rnm (v) = 1. För x 6= 0 kan man visa
att Rnm (v) konvergerar likformigt mot noll i varje intervall som ej innehåller
arccos 11+ . Därmed har vi "visat" att
R (v) = lim Rnm (v) =
Härur följer att
R
8
< 1 v = arccos
: 0
v 6= arccos
1
1+
1
1+
.
Rnm (v) dv konvergerar mot en trappstegsfunktion med ett
enda trappsteg för v = arccos
1
1+
20
Då relation (3.12) kan skrivas
j
=
1
cos (jv) dR
erhålls att trappstegets höjd är ; ty
(3.14)
j
= lim
nm
= 1. Således …nner vi
0
1
1+
(j) = cos j arccos
;
j = 0; 1; 2; : : : .
Därmed är vi klara med förberedelserna för att kunna visa att Ynm (t) konvergerar i sannolikhet mot en sinuskurva med period
2
p=
.
1
1+
arccos
Först konstaterar vi att en dylik sinuskurva satis…erar di¤erensekvationen
(3.15)
Yt+2
2 1 Yt+1 + Yt = 0 t = 1; 2; 3; : : : .
där 1 erhålls ur (3.14). Omvänt ger di¤erensekvationen (3.15) en sinuskurva
med period p.
Låt nu Y1 ; Y2 ; : : : ; YN vara sådana att Yt = plimYnm (t) för t = 1; 2; : : : ; N .
Bilda variablerna Tnm (t) enligt
Tnm (t) = Ynm (t + 2)
2
nm
(1) Ynm (t + 1) + Ynm (t)
t = 1; 2; : : : ; N .
För dessa gäller
E (Tnm (t))
= 0
V (Tnm (t))
= E (Ynm (t + 2) 2 nm (1) Ynm (t + 1) + Ynm (t))
= 1 + 4 2nm (1) + 1 4 2nm (1) + 2 nm (2) 4 2nm (1)
= 2 1 2 2nm (1) + nm (2)
2
Om vi nu kan visa att Tnm (t) ; t = 1; 2; : : : ; N simultant konvergerar mot noll
i sannolikhet så följer att di¤erensekvation (3.15) gäller och därmed att följden
fYnm (t)g är en sinuskurva med den ovan angivan perioden. För ett godtyckligt
tal > 0 erhålls med hjälp av Tjebysjov:s olikhet att
P
N
X2
i=1
jTnm (i)j >
!
E
22
fChung sid 48g
=
fse appendixg =
och det följer att plim
P
PN
2
i=1
PN
4 (N
23 (N
2
2
2
i=1
2
jTnm (i)j
2
E jTnm (i)j
2
2) 1
2)
2
2
nm
2
(1) +
nm
(2)
8mn + 4m + 4n + 2
2
(m + n + 1) (m + n + 2)
jTnm (i)j = 0. Detta är ekvivalent med att
plimTnm (i) = 0 för i = 1; 2; : : : ; N
21
2.
3.6
Hur linjära …lter konstrueras
I föregående sektion har vi gett metoder för att undersöka egenskaperna hos, på
förhand givna, linjära …lter. Nu skall vi ge en metod för det omvända problemet:
Hur skall det linjära …lter, som har vissa på förhand givna egenskaper, se ut?
Nyckeln till den sökta metoden gavs redan i avsnittet om Slutsky:s sats
–"Lineär …ltrering av en vitt brus process fIt g skapar mönster där inga urn
sprungligen fanns". Härav följer att vi måste välja vårt linjära …lter L = [li ]i=m
så att storleksordningen av L (It ) blir mycket mindre än storleksordningen av
L (ct + st ). På så sätt blir den …ltrerade brus processen:s in‡ytande obetydligt
och dess speciella uppförande blir ointressant.
Nu är begreppet storleksordning di¤ust och vår första uppgift blir att skärpa
detta begrepp, så att det blir hanterbart. Betrakta därför
n
X
L (It ) =
li It
i
i=m
där
Pn
i=m li
t 2 T0
= 1 och It 2 ON (0; ). För denna process gäller
E (L (It ))
V (L (It ))
=
=
n
X
i=m
n
X
li E (It i ) = 0,
li2 V (It i ) =
i=m
2
n
X
li2 .
i=m
Av dessa två uttryck ser vi att om V (L (It )) är liten, blir även L (It ) det. Denna
observation ger oss följande de…nition på ett …lters storleksordning.
De…nition 3.5 Filtret L1 säges vara av lägre storleksordning än …ltret L2 om
n
X
2
l1i
<
i=m
n
X
2
l2i
.
i=m
Om det ej …nns något …lter L2 så att
n
X
2
l1i
>
i=m
n
X
2
l2i
i=m
säges …ltret L1 vara optimalt.
Observera att vi vid de…nition av storleksordning ej jämför L (It ) med L (ct + st )
utan endast med sig själv.
Vi har nu följande sats om optimala …lter:
n
Sats 3.6 Det linjära …ltret L = [li ]i=m är optimalt om och endast om
li =
1
;
m+n+1
i = m; m + 1; : : : ; n
1; n.
Pn
Bevis. För alla linjära …lter gällerP i=m li = 1. Antag nu att …ltret är opn
2
timalt. Detta
Pn är ekvivalent med att i=m li antar sitt minsta värde under bivillkoret i=m li = 1. Lagranges multiplikatormetod ger att vi skall minimera
22
funktionen
F
= F (lm ; : : : ; ln ; a)
n
n
X
X
=
li2 + a
li
i=m
@F
@li
@F
@a
sätt
@F
@li
=
@F
@a
=
=
!
1
i=m
2li + a
n
X
li
1
i=m
= 0 varvid erhålls lösningen
2
1
li =
.
m+n+1
m+n+1
Pn
1
Omvänt, om li = m+n+1
så antar i=m li2 sitt minsta värde under bivillkoret
Pn
i=m li = 1. Således är …ltret optimalt.
a=
1
Följdsats 3.1 Det optimala …ltrets storleksordning är m+n+1
.
2
Pn
P
n
m+n+1
1
1
2
Bevis.
= (m+n+1)
2 = m+n+1 .
i=m li =
i=m m+n+1
I sats P
3.6 har …ltret ingen annan egenskap än den som alla linjära …lter
n
besitter – i=m li = 1. För varje ytterligare egenskap som vi lägger på avlägsnar
vi oss från det optimala …ltret.
Två vanliga egenskaper som man kräver av ett linjärt …lter är dels att det
skall eliminera periodiska förlopp (säsongvariationer) och dels skall de släppa
igenom polynom (konjunkturcykeln). dessa egenskaper ger upphov till två bivillkor som vi kan skriva
L (ct )
L (st )
= ct ,
= 0.
Totalt har vi nu tre villkor på komponenterna li , vilket ger tre ekvationer för
att bestämma dessa. Vanligen har …ltret mer än tre obestämda komponenter
och för att bestämma samtliga minimerar vi
F
= F (lm ; : : : ; ln ; a; b; c)
!
n
n
X
X
2
=
li + a
li 1 + b (L (ct )
i=m
ct ) + cL (st )
i=m
med hjälp av Lagranges multiplikatormetod.3
3 Jämnare
kurvor erhålls om vi i formeln ovan byter ut
2 + l2 . Detta senare uttryck är V (L (I
lm
It 1 )).
t
n
En blandning
0
n
n
X
X
2
d
(li li 1 ) + e @
(li li
i=m
i=m+1
av de två uttrycken kan också förekomma.
23
Pn
2
i=m li
1)
2
+
mot
2
lm
+
Pn
i=m+1
1
2A
ln
(li
li
1)
2
+
För att illustrera metodiken vid konstruktion av linjära …lter skall vi nu ge
ett par exempel. I båda exemplen skall vi hitta det symmetriska linjära …lter
som släpper igenom linjära polynom och som eliminerar sinusfunktioner med
period 12.
Exempel 3.3 Bilda det symmetriska linjära …lter av ordning 7 som är sådant
att a) L (a + bt) = a + bt, b) L (sin ( t=6) + c) = 0 och c) V (L (It )) minimeras.
P3
Lösning. Först noterar vi att villkoret
i= 3 li = 1 tillsammans med symmetrin ger
L (a + bt)
=
3
X
lt (a + b (t
i))
i= 3
= a
3
X
lt + b
i= 3
= a + bt
3
X
lt (t
i)
i= 3
b
3
X
li i
i= 3
fpå grund av symmetring = a + bt.
Vi har därmed visat att: varje symmetriskt linjärt …lter släpper igenom linjära
polynom.
För att …nna villkor på …ltret som utsläcker periodiciteter utvecklar vi
L (sin ( t=6 + c))
=
3
X
li sin ( (t
i) =6 + c)
i= 3
= l0 sin c +
1
t
6
1p
1
1p
1
3l1 sin c +
t +
3l 1 sin c +
t
2
6
2
6
1
1
1
1
+ l2 sin c +
t + l 2 sin c +
t
2
6
2
6
1
1
l3 cos c +
t + l 3 cos c +
t
6
6
1
1p
1p
1
1
=
l 2+
3l 1 + l0 +
3l 1 + l2 sin c +
t
2
2
2
2
6
+
För att bli av med l 3 och l3 har vi använt oss av symmetrin. För att …ltret
skall släcka angiven peridicitet måste därför gälla
p
p
l 2 + 3l 1 + 2l0 + 3l1 + l2 = 0.
Vi minimerar nu variansen, med hjälp av Lagranges multiplikatormetod, under
de två bivillkoren a) och b) och erhåller då
!
3
3
X
X
p
p
2
F =
li +
li 1 +
l 2 + 3l 1 + 2l0 + 3l1 + l2
i= 3
i= 3
T
= LAL
T
LB
24
där
L = ( ; ; l 3 ; l 2 ; l 1 ; l0 ; l1 ; l2 ; l3 )
B = (1; 0; 0; 0; 0; 0; 0; 0; 0)
0
0
0 0:5 0:5 0:5
0:5
p
B 0
3
0
0 0:5 2
1
B
B 0:5 0
1
0
0
0
B
B 0:5 0:5 0
1
0
0
B
p
B
A = B 0:5 23
0
0
1
0
B
B 0:5 p1
0
0
0
1
B
3
B 0:5
0
0
0
0
2
B
@ 0:5 0:5 0
0
0
0
0:5 0
0
0
0
0
0:5
p
3
2
0
0
0
0
1
0
0
0:5
0:5
0
0
0
0
0
1
0
Vi …nner nu att
@F
= 2ALT
@L
och
@F
@L
0:5
0
0
0
0
0
0
0
1
1
C
C
C
C
C
C
C
C
C
C
C
C
C
A
BT
= 0 ger oss lösningen
LT =
1
A
2
1
BT
varur vi …nner vikterna
l0
l1
l2
l3
p
1 5 3+1
p
=
0:10,
2 5 3 + 38
p
1 7 3 6
p
0:03,
= l 1=
2 10 3 + 76
p
1 2 3+5
p
= l 2=
0:16,
2 6 3 + 16
3
p
= l 3=
0:42.
2 2 3 7
Det symmetriska …ltret av ordning 7 som uppfyller villkoren a) - c) ovan är
således
L = [0:42; 0:16; 0:03; 0:10]
och dess storleksordning är
3
X
li2
0:42
i= 3
Exempel 3.4 Bilda det symmetriska linjära …ltret av ordning 13 som är sådant
att a) L (a + bt) = a + bt, b) L (sin ( t=6) + c) = 0 och c) V (L (It )) minimeras.
25
Lösning. På samma sätt som ovan …nner vi
L (sin ( t=6 + c))
=
6
X
lk sin ( (t
k) =6 + c)
k= 6
= l0 sin c +
1
t
6
1p
1
3l1 sin c +
t
2
6
1
1
+ l2 sin c +
t +
2
6
1
l3 cos c +
t +l
6
1
1
l4 sin c +
t
2
6
1p
1
3l5 sin c +
t
2
6
1
t
l
l6 sin c +
6
p
3
1
=
l 6
l 5
l
2
2
+
+
1
1p
3l1 + l2
2
2
1
l4
2
+
1
l
2
1p
3l
2
2
sin c +
1
sin c +
1
t
6
1
t
6
1
t
6
1
1
l 4 sin c +
t
2
6
1
1p
3l 5 sin c +
t
2
6
1
t
6 sin c +
6
3
4
cos c +
1
+ l
2
p
3
l5
2
2
1p
3l
2
!
+
l6
1
+ l0
sin c +
1
t
6
För att bli av med l 3 och l3 har vi använt oss av symmetrin. För att …ltret
skall släcka angiven peridicitet måste därför gälla
p
p
3
1
1
1p
1p
1
1
3
l 6
l 5
l 4+ l 2+
3l 1 + l0 +
3l1 + l2
l4
l5 l6 = 0.
2
2
2
2
2
2
2
2
På samma sätt som förut erhålls funktionen
F = LALT
LBT
fast här får vi istället en matris om 15 rader och kolumner. Det symmetriska
…ltret av ordning 13 som uppfyller villkoren a) - c) ovan blir således
L = [0:07; 0:07; 0:07; 0:08; 0:08; 0:08; 0:08]
och dess storleksordning är
3
X
li2
0:077.
i= 3
3.7
Slutsatser
I exempel 3.3 är den optimala storleksordningen 1=7
0:14 och det av oss
framräknade …ltrets storleksordning ca 0:42 ligger ganska långt från det optimala
26
värdet. Helt annorlunda är läget i exempel 3.4 där den optimala storleksordningen är 1=13 0:077. Att jämföras med det framräknade …ltrets storleksordning
som är 0:077. Ett till tre decimalers noggranhet ekvivalent värde. Nackdelen
med detta senare …lter är att man ej kan …ltrera tidseriens sex sista värden vilka,
åtminstone vid ekonomiska tidserier, innehåller den mest intressanta informationen.4
Ett …lter av ordning 13 som är allmänt använt är
L=
1
[2] [12] = [0:04; 0:08; 0:08; 0:08; 0:08; 0:08; 0:08] .
24
Detta …lter brukar kallas "det centrerade 12-månaders …ltret" och dess storleksordning är 0:08. Anledningen till att man använder detta …lter istället för …ltret
i exempel 3.4 är historiska. Förr fanns inga datamaskiner utan man räknade för
hand och det centrerade 12-månaders…ltret lämpar sig väl för dylik hantering.
När det dessutom är av samma storleksordning (skillnad tre tusendelar) varför
skall man byta?
4 Valet mellan ett kort respektive långt …lter skall baseras på tidseriens utseende. Om den
är jämn kan man ta ett kort …lter men om den är hoppig får man ta ett långt.
27
4
Polynom…lter
I kapitel 3 utgick vi ifrån att säsongrensning görs med hjälp av linjära …lter
och utredde dessa …lters egenskaper. I detta kapitel skall vi utgå ifrån att vår
tidsserie fOt g lokalt kan approximeras av ett polynom. Med lokal approximation
menar vi att till en bit av tidsserien anpassas ett polynom med hjälp av minsta
kvadratmetoden. Motsatsen, global approximation, innebär att anpassningen
görs till hela tidsserien.
Denna metodik, med lokal polynomapproximation, är föregångare till den
av oss i kapitel 3 beskrivna metodiken med linjära …lter. Lokal polynomapproximation, som den beskrivs nedan, leder faktiskt till ett linjärt …lter och blir
således den naturliga länken mellan det intuitivt självklara och metodiken med
linjär …ltrering.
I detta kapitel är n = 2m+1 (udda) så att tidsserien fOt g och dess …ltrerade
motsvarighet ej blir tidsförskjutna i förhållande till varandra.
4.1
Metod
N
Låt fOt gt=0 vara vår tidsserie. Till de n första värdena O0 ; O1 ; : : : ; On 1 anpassar vi med hjälp av minsta kvadratmetoden ett polynom av grad p ( n 1)
där p är på förhand valt. Detta polynom skriver vi
p0 (s) = a00 + a10 s +
+ ap0 sp
Ersätt nu det mittersta värdet i O0 ; O1 ; : : : ; On 1 med polynomets konstanta
term a00 . Upprepa detta förfarande på O1 ; O2 ; : : : ; On med polynomet
p1 (s) = a01 + a11 s +
+ ap1 sp
o s v. Allmänt har vi att det mittersta värdet av Ot ; Ot+1 ; : : : ; Ot+n 1 ersätts
med a0t där a0t = pt (0).
För att lättare förstå och reda ut konsekvenserna av denna metod, samt att
28
den är rimlig, inför vi följande hjälpvariabler Xs;t
X
X(
m;t
m+1);t
(4.1)
X0;t
X(m 1);t
Xm;t
= Ot ,
= Ot+1 ,
..
.
= Ot+m t = 0; 1; : : : ; N
..
.
= Ot+2m 1 ,
= Ot+2m .
2m
Detta framställningssätt tydliggör att vårt …lterfönster består av ett udda antal
termer där den mittersta är X0;t = Ot+m och det är detta mittersta värde som
ersätts med a0t d v s vi inför approximationen att Ot+m = X0;t
a0t . Den
modell vi därmed skapat kan skrivas
(4.2)
Xs;t = a0t + a1t s +
+ apt sp + Is;t .
där Is;t 2 ON (0; ). Med hjälp av minsta kvadratmetoden skall vi, i tidsfönstret
[ m; m], minimera
(4.3)
Qt =
m
X
(xst
a0t
2
apt sp )
a1t s
s= m
där t = m + 1; m + 2; : : : ; N m 1; N m för att …nna skattningar på parametrarna a0t ; a1t ; : : : ; apt . Det mittersta värdet Ot+m = X0;t ersätts därefter
N m
med skattningen a
^0t . Detta innebär en transformation av tidsserien fOt gt=m
N m
till tidsserien f^
a0t gt=m .
Vid minimeringen av (4.3) erhålls ekvationssystemet
X
X
X
a0t (2m + 1) + a1t
s+
+ apt
sp =
xs;t
X
X
X
X
(4.4)
a0t
s + a1t
s2 +
+ apt
sp+1 =
sxs;t
a0t
X
sp + a1t
X
sp+1 +
P Pm
där samtliga summationer
= s=
av matrisbeteckningar skrivas
+ apt
m.
X
..
.
X
sp xs;t
Detta ekvationssystem kan med hjälp
S1 aTt = S2 xTt
29
..
. =
s2p =
där
at
xt
S1
S2
= (a0t ; a1t ; : : : ; apt )
= (x m;t ; x m+1;t ; : : : ; xm;t )
0
P
P p 1
2m
s
P+ 1
P s2
P p+1
B
C
s
s
s
C
B
= B
C
..
..
.
.
.
.
A
@
.
P. p
P .p+1
P . 2p
s
s
s
0
1
1
1
B
m
m
+
1
m
B
B
..
..
..
..
= B
.
.
.
.
B
@ ( m)p 1 ( m + 1)p 1
mp 1
p
p
( m)
( m + 1)
mp
1
C
C
C
C
C
A
varur vi …nner den observerade skattningen på a
^T0t till S1 1 S2 xTt .
4.2
Filtrering av tidsseriens ändar
N
En brist, när vi hitills har …ltrerat en tidsserie fOt gt=0 med ett symmetriskt
…lter L av ordning 2m + 1, har varit att vi undvikit att tala om vad de m
första respektive m sista värdena skall ersättas med. Det är speciellt de m sista
värdena som innehåller den, för oss, mest intressanta informationen ty de ger
vink om tidsseriens kommande utveckling. Denna brist skall vi nu delvis täppa
till.
N
Vi tecknar den …ltrerade tidsserien med fYt gt=0 där och det gäller
8
^0;m + a
^1;m s +
+a
^p;m sp
t = m; s = m; : : : ; 1
< a
a
^
t = m; : : : ; N m; s = 0
Ys+t =
0t
:
a
^0;N m + a
^1;N m s +
+a
^p;N m sp t = N m; s = 1; 2; : : : ; m
För att bestämma Yt för de m sista värdena, d v s då t = N
använder vi oss av att
Ys+N
m
=a
^0;N
m
+a
^1;N
ms
+
+a
^p;N
p
ms
s = 1; : : : ; m
N
ty högra ledet ovan är minsta kvadratanpassningen till fOt gt=N
erhålls för t ex N att
YN = a
^0;N
m
+a
^1;N
mm
+
+a
^p;N
m + 1; : : : ; N ,
2m .
Speciellt
p
mm
Samma metod kan användas för att bestämma de m första värdena Y0 ; Y1 ; : : : ; Ym
Exempel 4.1 Konstruera ett polynom…lter med hjälp av ett tredjegradspolynom
och ett fönster av längden 7. Ange även skattningar på de sista tre värdena och
gör en prognos ett steg framåt.
Lösning. Det gäller att
(4.5)
a
^T0t = S1 1 S2 xTt
30
1.
där n = 7 (m = 3). Då p = 3 erhålls matriserna
0
P3
P3
2
7
s= 3 s
3s
P
P
Ps=
B
3
3
3
2
s
s
s3
B
S1 = B P3s= 3 2 P3s= 3 3 P3s= 3 4
@
s
s
s
P3s= 3 3 P3s= 3 4 P3s= 3 5
s= 3 s
s= 3 s
s= 3 s
0
1
1
1
1 1 1
B
3
2
1
0
1 2
S2 = B
@ ( 3)2 ( 2)2 ( 1)2 0 12 22
3
3
3
( 3) ( 2) ( 1) 0 13 23
och lösningen till ekvation 4.5 ger följande skattningar
a
^0;t
=
a
^1;t
=
a
^2;t
=
a
^3;t
=
P3
Ps=
3
P3s=
P3s=
s=
1
1
3 C
C
32 A
33
3
3s
4
3s
5
3s
6
3s
1
C
C
C
A
1
( 2X 3;t + 3X 2;t + 6X 1;t + 7X0;t + 6X1;t + 3X2;t 2x3;t ) ,
21
1
(22X 3;t 67X 2;t 58X 1;t + 58X1;t + 67X2;t 22X3;t ) ,
252
1
(5X 3;t 3X 1;t 4X0;t 3X1;t + 5X3;t ) ,
84
1
( X 3;t + X 2;t + X 1;t X1;t X2;t + X3;t ) .
36
Vi observerar först att koe¢ cienterna framför Xs;t ej beror av t, s eller Xs;t .
Således har vi att vår …ltrerade tidsserie kan skrivas
( m
) ( m
)
X
X
f^
a0;t g =
ls Xs;t =
ls Ot+m s
s= m
s= m
där ls endast beror av polynomets gradtal och längden av den bit, av den ursprungliga
Pmtidsserien, som används. Dessa konstanter ls har dessutom egenskapen s= m ls = 1 (se appendix 2) och således kan teorin i kapitel 3 tillämpas.
Vi erhåller nu att den …ltrerade tidsserien kan skrivas
8
a
^0;t
t = 3; 4; : : : ; N 3,
>
>
<
a
^0;N 2 + a
^1;N 2 + a
^2;N 2 + a
^3;N 2
t = N 2,
Yt =
2
3
a
^
+
2^
a
+
2
a
^
+
2
a
^
t = N 1,
>
0;N 2
1;N 2
2;N 2
3;N 2
>
:
a
^0;N 2 + 3^
a1;N 2 + 32 a
^2;N 2 + 33 a
^3;N 2 t = N .
samt att en skattning vid tidpunkt N + 1 blir
Y^N +1 = a
^0;N
2
+ 4^
a1;N
2
+ 42 a
^2;N
2
+ 43 a
^3;N
2.
Om vi uttrycker detta i den ursprungliga beteckningen för tidsserien så erhålls
YN
2
=
YN
1
=
YN
=
Y^N +1
=
1
(ON 6 4ON 5 + 2ON 4 + 12ON
42
1
(4ON 6 7ON 5 4ON 4 + 6ON
42
1
( 2ON 6 + 4ON 5 + ON 4 4ON
42
1
( 4ON 6 + 6ON 5 + 4ON 4 3ON
7
31
3
+ 19ON
2
+ 16ON
1
4ON ) ,
3
+ 16ON
2
+ 19ON
1
+ 8ON ) ,
3
4ON
2
+ 8ON
1
+ 39ON ) ,
3
8ON
2
4ON
1
+ 16ON ) .
Stoleksordningen för de fem …ltren blir
1
21
2
L :
1
42
2
2
2
( 2) + 32 + 62 + 72 + 62 + 32 + ( 2)
=
2
2
12 + ( 4) + 22 + 122 + 192 + 162 + ( 4)
LN
2
:
1
:
1
42
2
LN
:
1
42
2
LN
LN +1
:
1
7
2
2
1
,
3
=
42 + ( 7) + ( 4) + 62 + 162 + 192 + 82 =
2
2
2
19
,
42
19
,
42
( 2) + 42 + 11 + ( 4) + ( 4) + 82 + 392 =
13
,
14
2
2
2
2
2
( 4) + 62 + 42 + ( 3) + ( 8) + ( 4) + 162 =
All …lters komponenter summerar sig till 1 (se appendix).
32
59
.
7
5
Henderson …lter
I en fotnot i avsnitt 3.6 konstaterades att minimering av V (rYt ) gav jämnare
kurvor än minimering av V (Yt ), där
Yt
rYt
= L (Yt ) ,
= Yt Yt
1.
Vi gick då ej närmare in på vad vi menade med att en kurva är jämnare än en
annan. Det skall vi ej heller göra nu (läsaren får nöja sig med att det går att ge
en strikt de…nition) utan nöjer oss med följande lösa, men intuitiva, …gur:Om
Figure 5.1: Kurva 1 är streckad och kurva 2 heldragen.
både kurva 1 och 2 i …guren är väl anpassade till tidsserien fOt g så säges kurva 1
vara jämnare än kurva 2.Av denna lösa de…nition följer att den jämnare kurvan
ger upphov till en större residualvariation än den ojämna och det bör således
gälla
(5.1)
V (Ot
L1 (Ot )) > V (Ot
33
L2 (Ot ))
där L1 är det …lter som erhålls vid minimering av V (rYt ) och L2 erhålls vid
minimering av V (Yt ). För att kunna visa ?? ovan behöver vi känna till utseendet på komponenterna i de två …ltren L1 och L2 . Eftersom vi sedan tidigare
känner komponenterna för L2 , l2i = 1= (2n + 1), behöver vi endast bestämma
komponenterna l1i för L1 . Dessa följer av
Pn
Sats 5.1 Låt It 2 ON (0;
i= n li It i . Minimering av
P ) och sätt Yt =
V (rYt ) under bivillkoret
li = 1 och li = l i ger
2
3 (n + 1)
li =
i2
i=
(n + 1) (2n + 1) (2n + 3)
n; n + 1; ; : : : ; n
1; n
Bevis. Se appendix 3
Därmed känner vi komponenterna för de båda …ltren L1 och L2 . Beviset för
att olikheten (5.1) gäller överlåtes på läsaren.
Ovanstående resultat, att minimering av V (rYt ) ger jämnare kurvor än
minimering av V (Yt ), ger mer allmänt att minimering av V rk Yt ger jämnare
kurvor än minimering av V rk 1 Yt . Detta är en av anledningarna till att
Henderson…ltret ser ut som det gör. I sin artikel [1], Note on graduation by
adjusted average, väljer Henderson att minimera V r3 Yt med motiveringen
we shall tentatively adopt the usual citerion of smoothness, namely
the smallness of the mean square of the error in the third di¤ erence.
Att Henderson väljer att minimera V rk Yt
är således baserat på praxis.
5.1
för k = 3 och inget annat k
Henderson-…ltret –konstruktion
Henderson-…ltret kännetecknas av att V r3 Yt skall minimeras under följande
tre bivillkor:
1. Tredjegradspolynom skall släppas igenom.
2. Filtret skall vara symmetriskt.
3. Komponenterna skall summera sig till ett.
Om
P3 (t) = a0 + a1 t + a2 t2 + a3 t3
är tredjegradspolynomet och LH det sökta Henderson-…ltret så ger (1) att
LH (P3 (t)) = P3 (t)
vilket också kan skrivas
P3 (t) =
n
X
li P3 (t
i= n
34
i) .
Detta är ekvivalent med att följande fyra ekvationer gäller
X
a3 =
li a3
X
a2 =
li (a2 3a3 i)
X
a1 =
li a1 2a2 i + 3a3 i2
X
a0 =
li a0 a1 i + a2 i2 a3 i3
Av dessa igenkännes den första som (3). De övriga tre ekvationerna kan skrivas
n
X
ili
=
0
i2 li
=
0
i3 li
=
0
i= n
n
X
i= n
n
X
i= n
där den första och sista är trivialt uppfyllda för symmetriska …lter. Återstår att
minimera V r3 Yt under bivillkoren
n
X
i2 li
i= n
n
X
=
0,
li
=
1,
li
= l i.
i= n
Innan vi ger oss in på denna minimering skall vi söka ett uttryck för V r3 Yt .
De…niera li = 0 då jij > n.
!
1
X
3
3
V r Yt
= V
li r It i
i= 1
1
X
= V
li (It
3It
i
i 1
+ 3It
i 2
i= 1
1
X
= V
(li
3li
1
i= 1
1
X
= V
=
2
i= 1
1
X
i= 1
3
r li It
r3 li
2
i
+ 3li
2
li
3 ) It i
!
It
!
!
i 3)
.
Därmed har vi att den funktion som skall minimeras med avseende på vikterna
li är
!
n
n
1
X
X
X
2
F = 2
r3 li + a
li 1 + b
i2 li .
i= 1
i= n
35
i= n
Lagranges multiplikatormetod ger oss ekvationerna (se appendix 4 för en diskussion)
2
2
r6 li+3 + a + bi2
n
X
li
=
0
=
1
i li
=
0
i= n
n
X
2
i= n
varav den första säger oss att li+3 måste vara ett polynom av högst grad 8.1 Då
li = 0 för i = (n + 1) : (n + 2) ; (n + 3) erhålls att
2
i2
li = (n + 1)
2
(n + 2)
2
i2
(n + 3)
i2
a0 + a1 i2 .
De två senare ekvationerna ger nu att
2
a0 + a1 i2 = a2 3 (n + 2)
där a2 väljes så att
skrivas
2
li = a2 (n + 1)
Pn
i= n li
i2
11i2
16
= 1. Henderson-…ltret:s komponenter kan således
2
(n + 2)
i2
2
(n + 3)
i2
2
3 (n + 2)
16
11i2
där
a2 =
315
8
(2n + 9) (2n + 7) (2n + 5) (2n + 3) (2n + 1) (2n
1) (n + 3) (n + 2) (n + 1)
I X11-ARIMA förekommer tre typer av Henderson-…lter och dessa är
9-termers
13-termers
23-termers
LH9 = [ 0:041; 0:010; 0:118; 0:267; 0:331]
LH13 = [ 0:019; 0; 028; 0:0; 0:066; 0:147; 0:214; 0:240]
LH23 = [ 0:004; 0:011; 0:016; 0:015; 0:005; 0:013; 0:039;
0:068; 0:097; 0:122; 0:138; 0:148]
och deras egenskaper undersöks närmare i nästa sektion.
5.2
Henderson-…ltret –egenskaper
I detta avsnitt skall vi undersöka, med hjälp av den i kapitel 3.3.1-3.3.2 framtagna metodiken, vilka funktioner som Henderson-…ltret av ordning 13 avbildar
på noll respektive sig själv. Grundläggande data om 9-termers …ltret …nns i appendix 5 och det överlåtes åt läsaren att själv genomföra nedanstående analys
för detta.
I säsongrensningsprogrammet X11-ARIMA används, efter att ha rensat bort
säsonger, Henderson-…ltret av ordning 13 för att erhålla en första skattning av
trendcykeln. Denna skattning dras sedan från den säsongrensade serien vilket
1 Sex
di¤erenser skall resultera i en kvadratisk term.
36
.
ger en skattning av den irreguljära komponenten. Med hjälp av dessa två skattningar bildas ett mått vars storlek slutligen bestämmer vilket Henderson-…lter
som skall användas.
Av tabell 1 nedan framgår att …ltret av ordning 13 avbildar sinusfunktioner
med periodiciteterna 5:36, 2:14, 3:02, 3:83 och 2:51 på noll. Detta ger som resultat ytterligare en rensning av snabba säsongmönster. Filtrets storleksordning
1
[2] [12] vars storleksordning var
är 0:204 vilket är betydligt sämre än …ltret 24
0:08. Dock erhålls en ytterligare dämpning av den irreguljära komponenten.
I tabell 2 ser vi att roten 1 förekommer precis 4 gånger vilket svarar mot den
önskade egenskapen att tredjegradspolynom skall slippa igenom. Lösningen till
di¤erensekvationen
LH13 (xt ) = xt
kan skrivas
2
3
xt = a0 + a1 t + a2 t + a3 t +
4
X
fj (t)
j=1
där funktionerna f1 (t) ; : : : ; f4 (t) är periodiska med perioderna 2:35, 3:64, 3:64
och 2:35: Detta innebär att vissa snabba periodicitetsmönster kan slinka igenom
men det troliga är att alla dessa redan släckts.
k
1
2
3
4
5
6
7
8
9
10
11
12
Tabell 1: LH13 (xt ) = 0
rk
jrk j
1:95
1:95
0:51
0:51
0:39 + 0:92i
1:00
0:39 0:92i
1:00
0:98 + 0:21i 1:00
0:98 0:21i 1:00
0:49 + 0:87i 1:00
0:49 0:87i 1:00
0:07 + 1:00i 1:00
0:07 1:00i 1:00
0:81 + 0:59i 1:00
0:81 0:59i 1:00
k
1
2
3
4
5
6
7
8
9
10
11
12
f1
f2
f3
f4
f5
Tabell 2: LH13 (xt ) = xt
rk
jrk j
1
1
1
1
1
1
1
1
1:93 + 0:97i 2:16
1:93 0:97i 2:16
0:30 + 1:93i 1:95
0:30 1:93i 1:95
0:08 + 0:51i 0:51
0:08 0:51i 0:51
0:41 + 0:21i 0:46
0:41 0:21i 0:46
f1
f2
f3
f4
De viktigaste egenskaperna hos …ltret av ordning 13 är således att en ytterligare utsläckning av snabba periodiciteter sker och att tredjegradspolynom
(trendcykeln) släpps igenom.
37
Appendix 1
Att
Z
v
v
cos2n
2
2
sin2m
0
där
(x) = (x
1) (x
dv =
(m + 1=2) (n + 1=2)
= B (m + 1=2; n + 1=2)
(m + n + 1)
1), se t ex [2]. Härav följer
= 22(m+n) B (m + 1=2; n + 1=2)
Z
v
2(m+n)
cos (v) sin2m
cos2n
(1)
=
2
nm
2
0
n
o
v
=
cos (v) = 2 cos2
1
2
Z
2m v
2(m+n)
= 2
2
sin
cos2(n+1)
2
0
Z
v
2m v
sin
cos2n
dv
2
2
0
nm
(0)
=
(1)
=
nm
(2)
=
=
=
=
Då
nm
(2)
nm
(k) =
dv
v
2
dv
22(m+n) (2B (m + 1=2; n + 1 + 1=2) B (m + 1=2; n + 1=2))
n + 1=2
22(m+n) B (m + 1=2; n + 1=2) 2
1
m+n+1
n m
nm (0)
m+n+1
Z
v
v
2(m+n)
cos2n
dv
2
cos (2v) sin2m
2
2
0
n
o
v
v
cos (2v) = 8 cos4
8 cos2
+1
2
2
22(m+n) (8B (m + 1=2; n + 2 + 1=2)
8B (m + 1=2; n + 1 + 1=2) + B (m + 1=2; n + 1=2))
(n + 3=2) (n + 1=2)
22(m+n) B (m + 1=2; n + 1=2) 8
(m + n + 1) (m + n + 2)
n + 1=2
8
+1
m+n+1
m2 + n2 6mn m n
nm (0)
(m + n + 1) (m + n + 2)
=
nm
v
2
=
nm (k)
nm (0)
erhålls
2
1
2
2
nm
(1) +
nm (2)
= 1
=
n m
m2 + n2 6mn m n
+
m+n+1
(m + n + 1) (m + n + 2)
8mn + 4m + 4n + 2
2
2
(m + n + 1) (m + n + 2)
38
Appendix 2
Sats 5.2 De …lter som bildas med polynommetoden i kapitel 4 är linjära …lter
vars komponenter summerar sig till 1.
Bevis. Att …ltren är linjära visas redan i kapitel 4. Här skall vi visa att komponenterna summerar sig till 1. I beviset kommer vi att använda oss av en del
elementär matrisalgebra. En referens bland många är [3] men vilken bok som
helst, som i sitt register har ordet ’cofactor’, duger.
N
Den …ltrerade tidsserien fYt gt=m de…nierades av
Ys+t =
a
^0t
a
^0;N
m
+a
^1;N
ms
+
t = m; : : : ; N m; s = 0
t = N m; s = 1; 2; : : : ; m
p
ms
+a
^p;N
vilket kan skrivas
(1; 0; : : : ; 0) a
^Tt
(1; s; : : : ; sp ) a
^Tt
Ys+t =
t = m; : : : ; N m; s = 0
t = N m; s = 1; 2; : : : ; m
men a
^Tt = S1 1 S2 X Tt och således har vi
(1; 0; : : : ; 0) S1 1 S2 X Tt
(1; s; : : : ; sp ) S1 1 S2 X Tt
Ys+t =
t = m; : : : ; N m; s = 0
t = N m; s = 1; 2; : : : ; m
Radvektorn (1; s; : : : ; sp ) S1 1 S2 är precis den vektor som innehåller …ltrets komponenter (l m ; l m+1 ; : : : ; lm 1 ; lmP
) och om vi multiplicerar den med vektorn
e = (1; 1; : : : ; 1) så får vi summan
li för s = 0; 1; 2; : : : ; m.
Således
m
X
li = (1; s; : : : ; sp ) S1 1 S2 eT .
i= m
Först …nner vi att
T
S2 e =
2m + 1;
m
X
s;
s= m
Därefter konstaterar vi att
0
S1
1
1
=
D
B
B
B
B
B
@
A11
A21
..
.
A12
A22
..
.
Ap1
Ap+1;1
Ap2
Ap + 1; 2
där Aij är den i,j:te kofaktorn till matrisen
beteckningar erhåller vi
0
A11
A12
B A21
A
22
1 B
B
.
.
1
T
..
..
..
S1 S2 e
=
B
.
DB
@ Ap1
Ap2
Ap+1;1 Ap+1;2
=
T
(1; 0; : : : ; 0)
;
m
X
p
s
s= m
..
!T
.
A1;p+1
A2;p+1
..
.
.
Ap;p+1
Ap+1;p+1
1
C
C
C
C
C
A
S1 och D = det (S1 ). Med dessa
A1;p+1
A2;p+1
..
.
Ap;p+1
Ap+1;p+1
10
2m + 1
P
m
CB
s= m s
CB
CB
..
CB
C B Pm . p 1
A@
s= m s
P
m
p
s= m s
1
C
C
C
C
C
A
ty S2 eT utgör första raden i S1 och påståendet följer från en sats om determinanters utveckling med hjälp av kofaktorer.
39
Appendix 3
De…niera li = 0 då jij > n då kan V (rYt ) skrivas
V (rYt )
1
X
= V
li It
1
X
i
i= 1
1
X
= V
(li
li
1 ) It i
i= 1
1
X
= V
i= 1
1
X
2
=
li It
i= 1
rli It
i
!
1 i
!
!
2
(rli ) .
i= 1
Vi har således att söka de li för vilka funktionen
F =
2
1
X
n
X
2
(rli ) + a
i= 1
li
i= n
!
1
antar sitt minsta värde. Derivation ger
@F
@lk
=
@F
@a
=
2
2
n
X
r2 lk+1 + a
li
1
i= n
och vi erhåller ekvationerna
r2 lk+1
n
X
=
li
=
a
2
2
,
1:
i= n
Av den första ekvationen följer att lk+1 måste vara ett polynom av högst grad
2 ty
r2 a0 + a1 k + a2 k 2
Vidare vet vi att ln+1 = l
li
(n+1)
= r ra0 + a1 rk + a2 rk 2
= r (0 + a1 + 2a2 k)
= 2a2 .
= 0 och vi …nner slutligen att
= konstant (i
(n + 1)) (i + (n + 1))
2
2
= konstant i
där konstanten bestämmes med hjälp av
1=c
n
X
i2
2
(n + 1)
=
i= n
(n + 1)
Pn
i= n li
2
= 1. Vi …nner
1
c (2n + 3) (2n + 1) (n + 1)
3
varav följer att
li =
3
2
(n + 1)
(2n + 3) (2n + 1) (n + 1)
40
i2
2
.
Appendix 4
Det är inte uppenbart att
1
@ X
r3 li
@li i= 1
2
2r6 li+3
=
men detta är en följd av följande lemma
Lemma 5.3 (Vandermonde) Följande identitet, mellan binomialkoe¢ cienterna, gäller
s
X
+
=
.
r
s
r
s
r=0
För att visa vår identitet ovan konstaterar vi först att
1
@ X
rk l i
@li i= 1
2
innehåller k + 1 termer som i sin tur innehåller li . Dessa är, som man lätt
övertygar sig om,
2
rk li
; rk li+1
2
; : : : ; rk li+k
2
.
Låt oss betrakta den j:te termen och utveckla den
k
r li+j
k
X
=
m=0
k
m
( 1) li+j
m
X
=
0 m<j
+
m
k
m
( 1) li+j
m
X
m
k
m
( 1) li+j
m
j<m k
+
k
j
( 1) li
j
m
Ur denna identitet följer att
@
rk li+j
@li
2
k
X
k
j
j
= 2 ( 1)
m=0
k
m
( 1) li+j
m
m
!
vilket ger
k
@ X
rk li+j
@li j=0
2
=
2
k
X
( 1)
j=0
=
2
k X
k
X
k
X
k
j
j
m=0
j+m
( 1)
j=0 m=0
k
j
k
m
( 1) li+j
m
k
li+j
m
m
!
m
= fsummera över diagonaler och använd lemma 5.3g
=
2 (1
2k
B)
li+k
41
Appendix 5
Filtret med 9 termer är av storleksordning 0:283.
k
1
2
3
4
5
6
7
8
Tabell 1: LH9 (xt ) = 0
rk
jrk j
2:56
2:56
0:39
0:39
0:62 + 0:79i 1:00 f1
0:62 0:79i 1:00
0:02 + 1:00i 1:00 f2
0:02 1:00i 1:00
0:96 + 0:29i 1:00 f3
0:96 0:29i 1:00
k
1
2
3
4
5
6
7
8
42
Tabell 2: LH9 (xt ) = xt
rk
jrk j
1
1
1
1
1
1
1
1
1:80 + 1:52i 2:36 f1
1:80 1:52i
0:32 + 0:27i 0:42 f2
0:32 0:27i
Bibliography
[1] R. Henderson (1916), Note on graduation by adjusted average, Transactions
of the American Society of Actuaries, 17, 43-48
[2] L. Råde, B. Westergren, Mathematics handbook for science and engineering
3 ed, Studentlitteratur 1995.
[3] G. Strang, Linear Algebra and Its Applications 2 ed, Academic Press
43