diff options
author | Julian T <julian@jtle.dk> | 2020-06-09 18:43:51 +0200 |
---|---|---|
committer | Julian T <julian@jtle.dk> | 2020-06-09 18:43:51 +0200 |
commit | 9300a7c997c986d1c1f1f1ef5f20df44e1ed8f11 (patch) | |
tree | e1ebf8e5f1ded4909e545205608ac398cc294442 /sem4/hpp | |
parent | d309dc0217fe6e0165f1f425503f4f6112a3914d (diff) |
Tilføjede ting til HPP
Diffstat (limited to 'sem4/hpp')
-rw-r--r-- | sem4/hpp/dist1/opgaver.md | 14 | ||||
-rw-r--r-- | sem4/hpp/eksamnen/noter.adoc | 204 |
2 files changed, 218 insertions, 0 deletions
diff --git a/sem4/hpp/dist1/opgaver.md b/sem4/hpp/dist1/opgaver.md new file mode 100644 index 0000000..befd769 --- /dev/null +++ b/sem4/hpp/dist1/opgaver.md @@ -0,0 +1,14 @@ +# Opgaver til distributed systems introduktion + +## Opgave 1 + +If we define a single unit of data to be the size of one number in C then we need. + +``` +Elements in AB Number of computes +N * N * 2 * M = 2 N^2 * M +``` + +## Opgave 2 + + diff --git a/sem4/hpp/eksamnen/noter.adoc b/sem4/hpp/eksamnen/noter.adoc new file mode 100644 index 0000000..ac421cc --- /dev/null +++ b/sem4/hpp/eksamnen/noter.adoc @@ -0,0 +1,204 @@ += Noter til Numerical Scientific Computing +:stem: + +== M1 + +Forskellige slags computational units. + +CPU:: +Mindre cores der er meget mere avanceret. +MCU:: +Mange cores, med x86. +GPU:: +Rigtig mange cores, som er coplet sammen i en matrix. +De kan derfor kun gøre den samme ting alle sammen. +Dette betyder at de er rigtig gode til matrix udregninger. ++ +Virker som en coprocessor. + +Når man har flere cores er der et problem med memory. +NUMA bliver her brugt og det betyder at en core har en del memory der er hurtigt +for den men langsomt for de andre. + +== M4 parallel computing + +Forskellige former for at køre kode på: + +SISD:: +_Single Instruction Single Data_. +Her kører man mere data sekvenselt med det samme kode. +SIMD:: +_Single Instruction Multiple Data_. +Her køre man en funktion flere gange sammentidigt med forskelligt data. +Her bliver hver processor nødt til at køre samme instruktion ligesom ved GPU. +MIMD:: +_Multiple Instruction Multiple Data_. +Man kører flere funktioner på forskelig data. ++ +Dette kan enten være synkront eller asynkront, men den langsomeste instruction +er den der bestemmer runtime. ++ +[horizontal] +SPMD::: _Single Program Multiple Data_. +Kører samme funktionalitet på flere forskellige dataset. +Ligesom *SIMD* men uden samme synkronisering. ++ +Python: `multiprocessing.map_async` + ++ +MPMD::: _Multiple Program Multiple Data_. +Hedder også task-parallel computing. ++ +Python: `multiprocessing.apply_async` + +_Summetric multiprocessing_ eller *SMP* er når man har flere processereder deler memory. +Dette er det de fleste computere gør idag. + +_Distributed memory_ er når hver processor har eget memory, som ved clusters etc. +Her er det dyrt at dele data mellem de forskellige processor da det skal sendes. + +_Map-reduce_ eller Hadoop er hvor man mapper data ud på en funktion og derefter +samler resultater i en liste. + +Fordelen ved at bruge flere processorer kan regnes ud som, hvis man følger *Amdahl's law*: + +stem:[S_a(M,s_a) = \frac{M}{(M-1) \cdot s_a) + 1}] + +Her er stem:[M] antal processorer og stem:[s_a] fractionen af hver meget der ikke kan +paralleliseret. + +Hvis man i stedet bruger *Gustafson-Barsis law* hvor man siger at med flere processorer, +lader man også problem size stige får man: + +stem:[S_{gb}(s_{gb}, M) = M + (1 - M) * s_{gb}] + +Her kan man se at er lineær, hvilket betyder at man bliver ved at med at have fordel af flere processorer. + +Dette går ud fra at stem:[s_{gb}] ikke ændrer sig med problem size. +For eksempel når man laver matrix matrix multiplication er der forskellige regler +med hvilken lov man skal bruge. + +*Se mere sammenligning af love på slide 39.* + +== M7 Distributed computing + +Køre et program på flere forskellige computere som ikke deler memory eller noget andet. + +Her er der flere forskellige challenges. + +* Distributed memory ++ +Hvordan skal man dele hukommelse med de forskellige nodes, når hver node har sin +egen version. +Og hvordan sørger man for at de er opdateret. +Dette kommer ned til to egenskaber. +** Cost of communication +** Consistency +** Timing ++ +Hvor langt inde er man? Hvordan bliver man enig om tiden. + +*Scalability* systemets mulighed for at håndtere en stigning i arbejde. +Dette kan man måle på forskellige måder. + +Performance:: +Hvor meget arbejde bliver der udført sammenligne med hvor mange ressourcer der bliver brugt. ++ +Her kan man kigge på latency som er en af de ting der tit bliver dårligere ved et +distribueret system. + +Availability:: +Hvor tit at man kan bruge systemet. ++ +Her kan et distribueret system være en fordel da det er fordelt ud over flere noder. + + +Der er forskellige måder at fordele data: + +Partition:: +Data bliver fordelt, hvilket er smart ved større dataset. +Men dette kan gøre at der er større krav til communication. +Replication:: +Giver redundancy, men kræver også meget plads på hver node. + +Forskellige timing system models. + +Synchronous:: +Alt foregår efter en global tid, og alt sker i den rigtige rækkefølge. +Dette er let at arbejde med, men er svært at implementere i praktikken. +Asynchronous:: +Beskeder er forsinket og noder gør ting med forskellige hastigheder. +Det er nok mere dette man laver i praksis, men det er også sværere at programmere. + +*Consensus problem* er om forskellige noder er enige om information. +Dette står der ting om på side 26. +Ved asynchronous systemer er der ikke en algoritmer der kan løse consensus, (*FLP* result). + +En anden theorem er *CAP* som siger at man kun kan opfylde to af følgende egenskaber. + +[horizontal] +Consistency:: Alle noder ser samme data. +Availability:: Noder der fejler smadre ikke andre noder. +Partition tolerance:: Beskeder der bliver tabt er ikke en global system fejl. + +Her vælger man tit Availability og Partition tolerance da disse to er vigtige for +store systemer. + +Ved numerical computing er consistency den vigtigste, mens de andre ikke er nær +så vigtige. +Dette er fordi alle noder er inden for en enkelt compute cluster og ikke spedt over +internettet. +Der er derfor garantier på forbindelse mellem noder. + +Hvis man har *total order* kan man sammenligne alle tids elementer, men dette +er dyrt i forhold til communikation. +Man kan også have *partial order* hvor der altid vil være værdier man ikke kan sammenligne. +Det er derfor svært at se om to events kommer efter hinnanden. + +Ved timing kan man bruge *Lamport timing* der fungere med countere der bliver incremented +ved arbejde og sendt til andre nodes. Se side 35. + +Man kan også have et *vector clock* hvor man gemmer tiden for alle de andre nodes. + +== M9 GPU computing + +SIMD hvor man skal køre det samme kode på rigtig meget data. +Kræver at der ikke sker meget branching da de så skal vente på hinnanden. + +En GPU har forskellige dele i forhold til OpenCL modellen. + +Host:: +Den der styrer det hele, og dette er tit CPU'en. +Software configuration på host kalder man *platform*. +Compute device:: +Dette er tit GPU'en, og en combination af platform og CD kalder man for *context*. +En CD indeholder flere CU. +Compute unit:: +Dette er en GPU core og indeholder flere PE. +Processing element:: +Eller PE, og er den der laver udregningerne. + +Disse dele har forskellige memory på forskellige levels. + +Global:: +Er hoved hukommelsen i GPU'en og kan ses af alle. +Er til gengæld ikke nær så hurtigt. +Constant:: +Mindre og kan ikke ændres. +Men er hurtigt og kan ses af alle PE. +Local:: +Delt af alle PE i en CU. +Dette er hurtigere end overstående og kan bruges til temp data der skal deles. +Private:: +Ikke mere end et par kilobytes, men er super hurtigt. +Kan kun ses af hver PE. + +I opengl har man *work item* og *work group*. +Her arbejder man tit på vector eller matrix, og dette mapper ret godt til work item og group. +Hver element i matrix bliver mapped til en work item. + +Her er work item hver PE mens work group er hver CU. + +I opencl programmere man hvad der skal ske med hvert element, og ikke loop som +man kender det. +Så finder opencl ud af hvordan arbejdet skal fordeles på GPU. |