Kort introduksjon om høyytelses databehandling

Av | juni 7, 2022

Per definisjon er superdatamaskiner de raskeste og kraftigste datamaskinene som er tilgjengelige, og for tiden refererer begrepet til maskiner med hundretusenvis av prosessorer. De er superstjernene i høyytelsesklassen av datamaskiner. Personlige datamaskiner (PCer) som er små nok i størrelse og kostnader til å brukes av en enkeltperson, men likevel kraftige nok for avanserte vitenskapelige og tekniske applikasjoner, kan også være datamaskiner med høy ytelse. Vi definerer HPC som maskiner med god balanse mellom følgende hovedelementer:

  • Flertrinns (rørledning) funksjonelle enheter.

  • Flere sentrale prosesseringsenheter (CPUer) (parallelle maskiner).

  • Flere farger.

  • Raske sentrale registre.

  • Veldig store, raske minner.

  • Meget rask kommunikasjon mellom funksjonelle enheter.

  • Vektor-, video- eller array-prosessorer.

  • Programvare som integrerer ovennevnte effektivt.

Som et enkelt eksempel gir det liten mening å ha en CPU med utrolig høy hastighet kombinert med et minnesystem og programvare som ikke kan holde tritt med det.

Høy databehandling og superdatamaskiner er ofte forbundet med store, statlig finansierte byråer eller med akademiske institusjoner. Imidlertid er det meste av høyytelsesdatabehandling i dag i kommersiell sektor, innen felt som romfart, bilindustri, halvlederdesign, design og produksjon av stort utstyr, energiutforskning og finansiell databehandling.

HPC brukes i andre domener der svært store beregninger som fluiddynamikk, elektromagnetiske simuleringer og komplekse materialanalyser må utføres for å sikre et høyt nivå av nøyaktighet og forutsigbarhet, noe som resulterer i høyere kvalitet og sikrere, mer effektive produkter. For eksempel brukes HPC til å modellere aerodynamikken, de termiske egenskapene og de mekaniske egenskapene til en bilkomponent eller komponenter for å finne nøyaktig riktig design som balanserer effektivitet, pålitelighet, kostnad og sikkerhet, før du bruker millioner av dollar på å lage en ekte prototype. produkt.

Over tid har den økende bruken av High-Performance Computing i forskning og i kommersiell sektor, spesielt innen produksjon, finans og energiutforskning, kombinert med en voksende katalog av databehandlingsapplikasjoner, skapt en trend mot HPC-plattformer bygget for å håndtere et bredere utvalg av arbeidsbelastninger, og disse plattformene er konstruert ved hjelp av mer allment tilgjengelige komponenter. Denne bruken av råvarekomponenter kjennetegner cluster and grid-æraen for High Performance Computing. Klynger og rutenett fortsetter å være de dominerende metodene for å distribuere High Computing i både kommersiell og forsknings-/akademisk sektor. Stordriftsfordeler og behovet for sentral styring av dataressurser på tvers av store organisasjoner med ulike krav har resultert i den praktiske virkeligheten at vidt divergerende applikasjoner ofte kjøres på den samme, delte HPC-infrastrukturen.

Høy ytelse databehandling kan skje på:

  • arbeidsstasjon, stasjonær, bærbar PC, smarttelefon!

  • superdatamaskin

  • Linux / MacOS / Windows / … klynge

  • Et rutenett eller en sky

  • Cyberinfrastruktur = hvilken som helst kombinasjon av de ovennevnte

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert.