Föreläsningar/lectures



Lecture:: 1 :: Vektorer och vektorräkning

I denna föreläsning introduceras begreppet vektor som är kanske det mest grundläggande begreppet i den linjära algebran. Vektorer är viktiga bland annat för att de används för att beskriva positioner och riktningar i våra flerdimensionella rum och för att man använder vektorer för att beskriva krafter hastigheter och andra fysikaliska storheter.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

iV :: 1.1 » 1, 2, 3, 4, 5, 6, 7, 8
iV :: 1.2 » 9, 10, 11, 12
iV :: 1.3 » 13, 14, 15, 16, 17, 18, 19
iV :: 1.4 »


Lecture:: 2 :: Introduktion till Gausselimination

Denna föreläsning introducerar Gausselimination som är det systematiska sätt som man använder för att lösa linjära ekvationssystem.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

1.1 » 1, 3, 5, 7, 9, 11, 19, 20, 21, 22, 23, 24, 25
1.2 » 1ad, 3 ,7, 9, 11, 15ab, 21, 22, 23, 24


Lecture:: 3 :: Gausselimination :: de singulära fallen

De singulära fallen av linjära ekvationssystem är system som antingen ger många lösningar, lösningsmängden blir linjer, plan eller liknande, eller så är systemet inkonsistent, dvs saknar lösning. Det här är väldigt viktiga fall och man behöver veta hur man hanterar systemen. Och det lär man sig i denna föreläsning.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

1.1 » 1, 3, 5, 7, 9, 11, 19, 20, 21, 22, 23, 24, 25
1.2 » 1ad, 3 ,7, 9, 11, 15ab, 21, 22, 23, 24
1.3 » 1, 3, 5, 7, 9, 17, 21 23, 24, 29
1.5 » 1, 2, 5, 9, 11, 17, 23, 24, 34


Lecture:: 4 :: Vektorekvationer och Homogena ekvationssystem

Ett linjärt ekvationssystem kan tolkas som en vektorekvation som hjälper oss att tolka systemet mha linjärkombinationer av koeffecientmatrisens kolonner. Homogena ekvationssystem är system där höger led är noll. Lösningarna till ett homogent ekvationssystem säger något viktigt om koeffecientmatrisen.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

1.3 » 1, 3, 5, 7, 9, 17, 21 23, 24, 29
1.4 » 1, 3, 5, 7, 9, 11, 15, 19, 21, 23, 24
1.5 » 1, 2, 5, 9, 11, 17, 23, 24, 34


Lecture:: 5 :: Linjärt beroende/oberoende och Gaussmaskinen

Linjärt beroende och oberoende är ett centralt och viktigt begrepp i linjär algebra.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

1.7 » 1, 2, 5, 7, 9, 11, 15, 19, 21, 22, 31


Lecture:: 6 :: Linjära avbildningar och deras matriser

Linjära avbildningar är något som tar vektorer som input och gör om dem till nya vektorer. När vi arbetar inom en referensram (med en bas) så blir varje linjär avbildning en matris. Här introduceras linjära avbildningar eller linjära transformationer som de också kallas. Vi studerar några enkla avbildningar såsom rotationer och speglingar.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

1.8 » 1, 3, 5, 7, 9, 11 19, 21, 22
1.9 » 1, 3, 5, 11, 15, 17, 23, 24


Lecture:: 7 :: Matriser och Matrisalgebra: matrisprodukten och inversen

Här introduceras matrisen och hur man räknar med dem. Om två matriser har samma format så kan de adderas. Om två linjära avbildningar kan sammansättas så kan man definiera en produkt av deras matriser. Detta leder till att produkten \(AB\) av två matriser kan definieras om den första matrisens antal kolonner är lika med den andra matrisens antal rader. Matrisprodukten är inte kommutativ, i allmänhet gäller att \(AB\neq BA\).

Från kurslitteraturen ::

Rekommenderade uppgifter ::

2.1 » 1, 2, 3, 5, 11, 19, 21, 27, 28
2.2 » 1, 5, 7, 21, 22, 23, 24, 29, 29, 31
2.3 » 1, 3, 5, 7, 23, 27, 20, 21


Lecture:: 8 :: Introduktion till determinanten.

Determinanten är en speciell funktion definierad på kvadratiska matriser. Determinanten ger villkor för inverterbarhet och determinanten har också flera geometriska betydelser som är användbara.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

DG :: 1.1 » 1:1.1-1:1.8
DG:: 1.2 » 1:2.9-1:2.13
DG :: 2, 2.1-2.5 » 2:5.14-2:5.25
3.1 » 1, 3, 9, 11, 13, 17, 21, 23, 24, 39, 40
3.2 » 1, 3, 5, 7, 9, 11, 13, 15, 17, 19, 21, 23, 25, 27, 28, 29
3.3 » 19, 20, 21, 22, 23, 25


Lecture:: 9 :: Vektorrum och delrum

Alla tredimensionella vektorer bildar tillsammans ett rum kallat \(\mathbb{R}^3\). Om vi bildar linjärkombinationer av flera sådana vektorer så får vi en ny vektor av samma sort. Linjärkombination underförstår att det finns en addition och en möjlighet att multiplicera en vektor med ett tal. Om vi tar \(\mathbb{R}^3\) tillsammans med dessa två räkneoperationer så har vi modellen för begreppet vektorrum. Vi studerar bara ändligtdimensionella vektorrum och sådana kan alltid identifieras med reella rum \(\mathbb{R}^n\). Men det finns också funktionsrum och liknande som är oändligtdimensionella. Dessa är på många sätt annorlunda men de delar trots det många vektorrumsliga egenskaper med våra vanliga rum. Vektorrummen och deras delrum är därför viktigt.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

2.8 » 1, 2, 3, 4, 5, 7, 9, 11, 15, 17, 19, 21, 22, 23, 25
2.9 » 1, 3, 5, 9, 11, 13, 17, 18
4.1 » 1, 3, 9, 11, 15, 23, 24


Lecture:: 10 :: Basbegreppet. Bas för våra matrisrum

Baser och referensramar. Baser för rad, kolonn och nollrum

Från kurslitteraturen ::

Rekommenderade uppgifter ::

4.2 » 1,3, 5, 15, 17, 19, 25, 26
4.3 » 1, 3, 5, 7, 9, 13, 21, 22
4.4 » 1, 3, 5, 7, 15, 16, 18


Lecture:: 11 :: Baser, koordinater och basbyte.

När vi räknar med vektorer så har vi underförstått att vi valt en standardreferensram och koordinatvektorerna är uttryckta med avseende på denna. Det finns dock många likvärdiga referensramar/koordinatsystem/baser och vektorerna, som själva pekar åt ett visst bestämt håll oavsett om vi mäter dem med våra ramar eller inte, kan uttryckas som koordinatvektorer mha var och en av dessa ramar. Koordinatvektorerna beror starkt på den valda ramen och byter man referensram så får vi nya koordinater. Sådana referensramsbyten är ofta viktiga när vi vill hitta en så enkel beskrivning av en situation som möjligt. Dessa basbyten ska vi studera i denna föreläsning.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

4.5 » 1, 3, 11, 13, 15, 19, 20
4.6 » 1, 3, 5, 6, 7, 9, 11, 13, 17, 18
4.7 » 7, 9, fler uppgifter i basbyte-uppgifter.pdf


Lecture:: 12 :: Skalärprodukten, ortogonalitet och projektion

Skalärprodukten introducerades i första föreläsningen. Här går vi vidare och arbetar mer ingående med ortogonalitet och hur man beräknar projektioner av vektorer.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

6.1 » 6.1: 1, 3, 5, 7, 11, 14, 15, 17, 27, 29
6.2 » 6.2 : 1, 3, 7, 9, 17, 19, 23, 24
6.3 » 6.3 : 1, 3, 7, 9, 15, 17, 19, 21, 22
6.4 » 6.4 : 1, 3, 5, 7, 9, 17, 18.


Lecture:: 13 :: Geometriska problem :: avståndsproblem

Hur man beräknar avstånd mellan punkter, linjer och plan.

Från kurslitteraturen :: Att beräkna avstånd

Rekommenderade uppgifter ::

» Att beräkna avstånd :: 1, 2, 3, 9, 10, 11, 12, 13, 14, 15, 16, 17, 21


Lecture:: 14 :: Minsta kvadratmetoden

Linjära algebrans kanske viktigaste tillämpning.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

6.5 » 6.5: 1, 3, 5, 6, 9, 11, 17, 18
6.6 » 6.6: 1, 2, 3, 4, 7, 9


Lecture:: 15 :: Egenvärden, egenvektorer och diagonalisering

Diagonalisering av matriser är att hitta den referensram som ger matrisens avbildning så enkel form som möjligt.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

5.1 » 5.1: 1, 3, 7, 13, 15, 17, 19, 20
5.2 » 5.2: 1, 9, 13, 21
5.3 » 5.3: 1, 5, 7, 11, 13, 17, 19
5.4 » 5.4: 1, 3, 8, 13, 15, 30


Lecture:: 16 :: Ortogonal diagonalisering

Symmetriska matriser kan ortogonalt diagonaliseras. Dessa matriser har en ortogonal uppsättning egenvektorer och då blir den diagonaliserande matrisen ortogonal. Ortogonala matriser är lätta att invertera och det gör att basbytet som diagonaliserar matrisen blir speciellt enkelt att beräkna.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

7.1 » 7.1: 1, 2, 3, 4, 5, 6, 7, 9, 11, 17, 19, 23
7.2 » 7.2: 1, 2, 3, 5, 9, 15, 17


Lecture:: 17 :: Kvadratiska former

I denna föreläsning så visar vi hur vi kan använda diagonalisering för att klassificera och arbeta med kvadratiska former.

Från kurslitteraturen ::

Rekommenderade uppgifter ::

7.2 » 7.2: 1, 2, 3, 5, 9, 15, 17


Lecture:: 18 :: SVD Singular Value Decomposition

Lite överkurs, men motiveras av att detta används på många ställningar

Från kurslitteraturen ::

Rekommenderade uppgifter ::

7.4 » 7.4 : 1, 3, 5, 7, 9, 11, 15, 19