スーパーコンピューター:これらの未知のマシンに関するすべて

バルセロナのマーレノストラム、スペイン

今日は Linuxに関係なくスーパーコンピューティングについて話すことはできません、そしてそれは、Linuxが最初はパーソナルコンピュータのセクターであると考えられていたという事実にもかかわらず、後でいくつかの興味深い統計で見るように、それを除いてすべてのセクターを支配したと言うことができます。 また、スペイン語で公開されている情報が少なく、誰もがアクセスできる分野です。

一方、私はそれを確認することができました スーパーコンピューターの世界 またはスーパーコンピューティングの利益ですが、一般的に、それは多くのユーザーにとってまったく知られていません。 だからこそ、私は時間をかけてスーパーコンピューターに関するこのメガポストを作成して公開しました。この「神秘的な」すべての秘密をたくさん教えてくれることを願っています。このテキストをすべて読み終え​​ると、秘密はなくなります。君は ...

記事やメガポスト以上に、一種の 理論的-実用的なウィキ いつでも相談できるスーパーコンピューティングについて。 それが目標であり、このLxAの記事が前後のターニングポイントになることです。 わかりますか? それをチェックしよう ...

スーパーコンピューティング入門

スーパーコンピューターとシステム管理者

最初から明確にするために、私たちの家にあるコンピューターは、存在する中で最も強力なもののXNUMXつです。 これが意味するのは、私たちが日常的に使用しているものよりもはるかに強力なマイクロプロセッサはないということです。 スーパーコンピューターの鍵は、超強力なマイクロプロセッサーや非常にエキゾチックなコンポーネントではなく、私たちが家庭で日常的に使用しているものとは異なります。 スーパーコンピューティングの鍵は並列処理です.

説明させてください、RAMメモリバンク、ハードドライブ、マイクロプロセッサ、マザーボードなど。 スーパーコンピューターのは、おそらくあなたが現在使用しているものや自宅に持っているものにあなたが想像するよりも似ています。 スーパーコンピューターの場合にのみ、それらは数百または数千にグループ化されて、これらの独立した「コンピューター」のそれぞれの能力を合計し、したがって構成します。 単一のシステムとして機能する優れたマシン.

私はについて話します 並列計算、 はい。 スーパーコンピューター、またはHPC(ハイパフォーマンスコンピューティング)またはハイパフォーマンスコンピューティングとして知られているものの作成を可能にするパラダイム。 つまり、自宅にAMD Ryzen 7があり、16 GBのRAM、ネットワークカード、8 TBのハードドライブがある場合、これに1000を掛けて、次のように機能させるとどうなるか想像してみてください。彼らがただのPCだったら。 1000 Ryzenを並行して実行し、16 TBのRAM、8PBのストレージになります。 ワオ !! これはすでにスーパーコンピューターのように見え始めていますよね?

と思ったらごめんなさい 非常に簡単な紹介とやや厄介な定義ですが、意図的に行われています。 知識が少なく経験豊富なユーザーでもこのパラダイムのコツをつかんでほしいので、そうしないと、このガイドの残りの部分を理解できません。 それを捕まえれば、大きな表面を占める大きくて奇妙な機械がそれほど奇妙に見えないことがわかるので、私はあなたにその考えにとどまって欲しいです...

スーパーコンピューターとは?

IBMスーパーコンピューター

前のセクションでは、並列処理とHPCという用語を紹介しました。 スーパーコンピューター、つまりこれらのHPC機能を備えたコンピューターを作成するには、明らかにしたように並列処理が必要です。 定義により、 スーパーコンピューターとは、その機能を備えたマシンです。 ある種の 彼らははるかに優れています 私たちが家に持っていることができる一般的なコンピュータのそれに。

一般的に、スーパーコンピューターのほとんどすべての機能はPCよりもはるかに優れていますが、特に注目を集めることができます。 計算能力 これはコアまたはプロセッシングユニットによるもので、 RAM そのような処理装置で利用可能であり、程度は低いが ストレージ容量、一般に、最初のXNUMXつは、このタイプのマシンに与えられる通常のアプリケーションにとってより重要であるためです。 計算能力やRAMよりもはるかに多くのストレージと帯域幅を必要とする大規模なマシンがいくつかあることは事実ですが、これはストレージサーバーの場合です...

スーパーコンピューターの歴史:

クレイ1:歴史的な写真

おそらく、最初のスーパーコンピューターの60つ、または歴史家がそれをそのように分類しているように、XNUMX年代に スペリー・ランド アメリカ海軍のために。 それから、IBMがIBM7030や他の多くのマシンで偉大な王になった時が来るでしょう。 また、アメリカの機械に対するヨーロッパの競争として、60年の初めにマンチェスター大学とフェランティのアトラス。 古い真空管(集積回路ではない)の代わりにゲルマニウムトランジスタを使用し始め、その構成に磁気メモリを使用し始めていたが、それでも非常に原始的だった。

その後、別の偉大な企業であるCDCが登場し、CDC 6600は、この分野のリーダーである重要な企業を後に指名する古い知人によって設計されました。 私は話します シーモアクレイ。 彼が設計した機械は1964年に完成し、シリコントランジスタを最初に使用したものの10つでした。 新しいシリコンテクノロジーとCrayによって設計されたアーキテクチャによってもたらされた速度により、マシンは競合製品の最大100倍の速度になり、8.000.000台をそれぞれXNUMXドルで販売しました。

Cray dejaría CDC (Control Data Corporation) en 1972 para formar la compañía líder que os he comentado, se trata de la Cray Research, creando el Cary-1 de 80 Mhz y uno de los primeros CPUs de 64-bit en 1976, convirtiendose en la supercomputadora más exitosa de la época y que podéis ver en la imagen principal de este apartado en la fotografía en blanco y negro. La Cray-2 (1985) seguiría el exitoso camino de la primera, con 8 CPUs, refrigeración líquida y marcando el camino de las modernas supercomputadoras en muchos sentidos. Aunque el rendimiento era de 1,9 GFLOPS.

あなたが今あなたのポケットに持っているスマートフォンがこの時代のこれらのスーパーコンピューターを超えていることを考えると、今ではほとんどばかげているように見えるかもしれません。 たとえば、 SoC Snapdragon835またはExynox8895 それぞれQualcommまたはSamsungから、それは約13,4 GFLOPSのパワーを持っています。つまり、Cray-10のほぼ2倍、Cray-100の約1倍です。 これらの巨大な機械は、現在手に持っているものほど小さくて軽い物体に靴の裏まで届きません。 数十年以内に、現在のスーパーコンピューターと同じかそれ以上の強力なデバイスを、小さなケースサイズに縮小できると思います。

話を続けて、この時が来た後 超並列設計の時代つまり、チップの製造コストの削減と相互接続の改善により、洗練されたマシンの代わりに、私が持っているような家庭用機器にあるものと非常によく似た数百または数千のチップを結合することでスーパーコンピューターを構築できるようになりました。以前にコメントしました。 実際、1970年代には、この新しい大規模な設計を使用し、Cray-1(250 MFLOPS)をはるかに超えるマシンがありました。これはILLIAC IVであり、256個のマイクロプロセッサが1 GFLOPSに達しましたが、いくつかの設計上の問題がありました。完成せず、64個のマイクロプロセッサを搭載した設計のみが実装されました。

大阪大学のLINKS-1グラフィックススーパーコンピューターは、これらの超並列マシンのXNUMXつであり、 257 ZilogZ8001マイクロプロセッサ 257個のInteliAPX 86/20 FPUにより、当時の優れたパフォーマンスを実現し、3GFLOPSでリアルな1.7Dグラフィックスをレンダリングできます。 そして、数百のマイクロプロセッサから現在のマイクロプロセッサのように数千のマイクロプロセッサに至るまで、少しずつ強力なマシンが登場するでしょう...

スペインには、ヨーロッパで最も強力なスーパーコンピューターのXNUMXつであり、IBMによって作成され、 めまいは、バセロナにあり、マラガ大学のピカソなど、いくつかで構成されるスペインのスーパーコンピューティングネットワークに属しています。このネットワークは、MareNostrumが定期的に受け取る更新で破棄された資料をフィードします。 実際、MareNostrumは、著者のDan Brownを魅了するマシンであり、この記事のメイン画像に示されているように、最も美しいデータセンター(古い修道院のアーキテクチャと最高のテクノロジーを組み合わせたもの)として選択されています。

最高性能 11.15PFLOPS
マイクロプロセッサ 165.888 Intel Xeon Platinum
RAM 390 TB
レッド オムニパス
デザイナー IBM
プラットフォーム SUSE Linux

スーパーコンピューターの機能:

IBMz13メインフレーム

多くの著者が分離していますが(私の意見では誤って) スーパーコンピューターサーバー そして、メインフレームでさえ、私がスーパーコンピューターについて作成した定義によれば、サーバーは通常のコンピューターよりもはるかに優れた機能を備えたコンピューターにすぎず、ある種のサービスを提供することに専念しているだけなので、スーパーコンピューターとして完全に包含することができます。ネットワーク...差別化する必要がある唯一のことは、マシンの目的に応じて、他の機能よりも優れた機能が必要になることです。

たとえば、クラウドストレージサービスなどのデータを対象としたサーバーの場合、私たちが関心を持っているのは、そのサーバーが残酷なストレージ容量を持っていることです。 トランザクションと銀行業務を処理するためのメインフレームの場合、重要なのはそのコンピューティング能力です。 しかし、私は主張します、両方ともスーパーコンピューターです。 そうは言っても、いくつか見てみましょう 私たちが興味を持っている主な特徴 スーパーコンピューター/メインフレーム/サーバーから:

  • セキュリティ:分離された、つまりインターネットから切断されたスーパーコンピューターの場合、境界セキュリティ対策を実装する必要がありますが、システム自体のセキュリティ自体は、接続されているサーバーほど重要ではありません。多くのクライアントに接続しているか、インターネットに接続しているときに攻撃の標的になる可能性があります。 しかし、いずれにせよ、セキュリティ対策は常に存在します。
  • 高可用性:サーバーまたはスーパーコンピューターは適切に機能し、ハードウェアまたはソフトウェアの問題を最小限に抑える必要があります。サーバーを停止すると、構築された目的にとって致命的となる可能性があり、100%の場合、コンピューターのダウンは多額の損失を意味します。 そのため、オペレーティングシステムでは、必要で堅牢な再起動(UNIX / Linux)、停電時の代替電源(UPS)、障害が発生した場合のシステムの冗長性、影響を及ぼさないレプリカがある場合のシステムの冗長性を削減するための対策が講じられています。多くの一般的なパフォーマンス、ノードを分離して他のノードに影響を与えず、残りの動作に影響を与えずにホットスワップできるようにするフェンシング技術、ハードドライブ上のRAID、ECCメモリなどのシステムのフォールトトレランス、スプリットブレインの回避、問題が発生した場合などに対応するDRP(災害復旧計画)を用意します。 また、信頼性と耐用年数を最大にする必要があります。次のパラメータは、どちらであるかに応じて常に最低または最高になります。
    • MTTF (平均故障間隔):平均故障間隔です。つまり、システムが故障するまで中断することなく動作できる平均時間を測定します。 したがって、高いほど良いです。
    • MTBF (平均故障間隔):平均故障間隔です。つまり、平均故障間隔を長くすることも重要です。これは、故障が非常に連続することを望まないためです。そうしないと、機器の信頼性が低下します。
    • MTTR (平均修理時間):平均修理時間、つまり保守性です。 システムが長期間動作しないように、低くする必要があります。
  • 高性能と負荷分散: これは、クライアント向けにアプリを実行する必要があるクラウドサービス、数学的計算や科学的シミュレーションなどのためにスーパーコンピューターやメインフレームで実行する必要がある場合に特に重要です。 これは、RAMの量、およびマイクロプロセッサの量やパフォーマンスを増やすことによって実現されます。 さらに、実行するプロセスの管理に依存する適切な負荷分散が必要です。これにより、一部のノードが他のノードよりも過負荷になることはありませんが、スーパーコンピューター全体のワークロードを均等にまたは最も均一に分散します。可能。
  • スカラリティ:構成やサイズの変更に制限なく適応するソフトウェアとハ​​ードウェアの機能。 このタイプのマシンは、新しいスーパーコンピューターを購入する必要なしに故障した場合、コンピューティング容量やメモリ容量などを拡張する際に柔軟でなければなりません。
  • コスト:これは、数百万に達する可能性のあるマシン自体とメンテナンスのコストだけでなく、通常MW(メガワット)で測定されるマシンの消費量と冷却システムのコストにも依存します。これは、それらが生成する熱の量によっても高くなります。 たとえば、サービスがホストされているサーバーがあるFacebookデータセンターを例にとると、数十億の費用がかかり、約1600人のエンジニアが働いています。これには、専任の技術者や管理者、電気代は含まれていません。これは成層圏です(今日のデータセンターは、世界中で生成される電気エネルギーの2%、つまり数十億ワットと数十億ユーロを消費します。実際、Googleだけが世界のエネルギーの0,01%を消費するため、通常はデータセンターを設置します。電気が安い世界の地域では、何百万ドルも節約できるからです)など。 このようなチームを維持するのは安くはないことを想像できます...そして、Facebookがオレゴンに持っている巨大なサーバーが数億ユーロに相当する約28.000 m2の倉庫にあるので、それはそれほど安くはありません。数千のプロセッサを搭載したサーバーのファーム、数PBのストレージを追加するハードドライブ、RAMメモリの多くのバンク、野生のネットワークカード(それらをインターレースするための6 kmの光ファイバーケーブルがあると計算されます)、すべて30MWを消費します停電用のUPSモードとして電気とディーゼル発電機を使用し、大規模な空調を備えた複雑な放散システムを必要とするすべての熱を生成します。

そして、これは最も重要な機能のためのものですが、 特定のアプリケーション より具体的なものが必要です。

実際の傾向:

IBMz13チップ

から ほとんどカスタムメイドのシステム IBM、CDC、またはCrayの最初の製品と同様に、チップまたは集積回路の登場とそれらの低コストにより、すべてが非常に急速に変化し、数千の要素を備えた新しい超並列スーパーコンピューティングの開始が可能になりました。 しかし、現在のスーパーコンピューターは、何千ものデバイスを組み合わせるだけでよい単純なシステムだとは思わないでください。それだけです。それらは、それを最大限に活用するために細部を甘やかす慎重な設計と製造を必要とする複雑なマシンです。すべてがスムーズに機能します。達成したい機能や特性に応じた適切な形式。

それらの最初のマシンの後 カスタム回路 または、マシン用にほぼ特別に設計されたカスタムチップでは、次のセクションで説明するように、マイクロプロセッサなどのはるかに標準的なシステムの使用を開始しました。

特定のマイクロプロセッサ:

XNUMXつのソケットを備えたAMDEpycマザーボード

当初は、ほぼ同じ処理チップが家庭用コンピューターとして使用されていましたが、現在、IBM、AMD、Intelなどの大企業は、デスクトップまたはその他の目的でマイクロプロセッサーの特定のモデルを設計しています。 たとえば、私たちは皆、IBMのPowerPCマイクロプロセッサに精通しています。これらのマイクロプロセッサは、数年前にIntelのチップを採用するまでAppleにインストールされていました。 Appleで使用されていたこれらの同じチップは、スーパーコンピューターにも電力を供給しています。 ただし、IBMには、連携して動作するパフォーマンスを向上させる大型マシン向けの特定の設計がいくつかあります。 パワー、PowerPCとISAを共有している場合でも。

同じことがSPARCでも起こります。SPARCは、支配的ではない、または非常に関心のあるセクターであるため、現在デスクトップ用の特定のモデルはありませんが、過去には同じマイクロプロセッサを搭載したワークステーションがありましたが、現在のものは、これらの優れたマシンでの作業用に特別に設計されています。 チップについても同じことが言えます IntelとAMD、現在のCore i3 / i5 / i7 / i9およびその機能の多く(Intel Itaniumではそうではありません)とマイクロアーキテクチャを共有するIntel Xeonなどの特定のマイクロプロセッサよりも、MPモードで動作するように最適化されているだけです。 同じことがAMDにも当てはまります。AMDはOpteronと呼ばれるK8またはAthlon64スーパーコンピューターの特別な実装を設計し、現在はEPYC(Zenベース)です。

ここで再び停止し、定義したいと思います マイクロプロセッサの種類 特定のパラメータによると:

  • そのアーキテクチャによると:CPUまたはマイクロプロセッサ自体のアーキテクチャに応じて、次のことがわかります。
    • マイクロプロセッサ:実装するマイクロアーキテクチャやテクノロジーに関係なく、通常のCPUまたはマイクロプロセッサです。
    • マイクロコントローラー:これは、RAM、I / Oシステム、およびバス、つまりチップ上のマイクロコンピューターとともに、同じチップ上で実行される通常の(通常はパフォーマンスの低い)CPUです。 一般に、これらはスーパーコンピューターでは使用されませんが、Arduinoなどの多くの家庭用および産業用デバイスやボードに非常に多く存在します。 しかし、スーパーコンピューターの問題については、それらを忘れてください...
    • DSP(デジタルシグナルプロセッサ):これらのデジタルシグナルプロセッサはスーパーコンピューティングの問題と一致しないと思うかもしれませんが、ヘテロジニアスコンピューティングについて詳しく見ると、それらがどのように意味をなすかがわかります。 しかし今、あなたはそれらがデジタル信号を処理するときに良いパフォーマンスを持つことができる特定のプロセッサであることを知っている必要があります。それはそれらをサウンドカード、ビデオなどに適したものにします。 しかし、これは、後で説明するように、特定の計算でいくつかの利点がある可能性があります...
    • SoC(システムオンチップ):それは、その名前が示すように、チップ上のシステム、つまり、マイクロコントローラーに含まれているもの以上のものが含まれているチップです。 CPU(通常はARM)に加えて、フラッシュ、RAM、I / O、およびいくつかのコントローラーも含まれています。 しかし、SoCの場合、統合CPUは通常高性能であり、スマートフォンやタブレットなどを対象としていますが、現在、このタイプのチップを処理ユニットとして使用しているマイクロサーバーがあります。
    • ベクトルプロセッサ:はSIMDマイクロプロセッサの一種です。つまり、複数のデータを使用して命令を実行します。 私たちが話したMMX、SSEなどのマルチメディア拡張機能のおかげで、多くの最新のマイクロプロセッサはSIMD機能を備えていると言えます。 しかし、私がベクトルプロセッサと言うとき、私は純粋なものを意味します。これは、各命令のデータのベクトルまたは配列を処理することに基づいて設計されています。 このタイプのプロセッサの例は、一部の日本のスーパーコンピュータで使用されている富士通FR-Vであり、GPUもそのように見なすことができます。
    • ASIC:英語での頭字語の特定用途向け集積回路、つまり、用途に基づいてカスタマイズされたチップです。 その設計は一般的な処理装置の使用よりも高いコストを意味しますが、特定の特定のアプリケーションに優れたパフォーマンスを提供できるもの。 また、FPGAを使用してそれらを実装する場合、電子的に言えば最も効率的ではありません。 たとえば、最近では、暗号通貨マイニングマシンを構築するために広く使用されています。
    • その他:APU(CPU + GPU)、NPU、クロックレスマイクロプロセッサ、C-RAM、バレルプロセッサなど、現在このトピックについてあまり関心がないものが他にもあります。
  • それらの核またはコアによると:モノコアまたはシングルコアCPUから複数のCPUに移行しましたが、複数のCPUを搭載したマイクロプロセッサ内では、次のものを区別できます。
    • マルチコア:これらは、デュアルコア、クアッドコア、オクタコアなど、私たちが頻繁に使用する従来のマルチコアです。 それらは通常、同じチップ上または同じパッケージ内であるが異なるチップ上に、2、4、8、12、16、32、...コアまたはコアを持っています。
    • メニーコア:上記と同様ですが、通常は数百または数千のコアであり、それを可能にするには、統合コアは、たとえばIntelやAMDの設計よりもシンプルで小さく、エネルギー効率が高い必要があります。 そのため、通常はタイルの形で配置されたARMコアに基づいています。 これらの多くを組み合わせると、非常に高い計算能力を実現できます。 Intelもこの男と一緒にいちゃつきました。XeonPhiは、はるかに単純なコアを使用するメニーコアx86ですが、現在のスーパーコンピューターに電力を供給するために多数(57から72)にバンドルされています。
  • その用途に応じて:この場合、関心があるのは2つのタイプ、つまりMPまたはマルチプロセッサシステムのみです。 デスクトップまたはラップトップコンピュータでは、マザーボードにはマイクロプロセッサを挿入するためのソケットが4つしかないことがわかります。代わりに、サーバーのマザーボードにはそれぞれにXNUMX、XNUMX、...ソケットがあります。これがMPの意味です。

しかし、マイクロプロセッサは、より優れたコンピューティング機能が実現される、つまりより優れた他のより具体的な処理ユニットに徐々に置き換えられています。 WあたりのFLOPS間の効率 次のセクションで説明するように、達成されました。

その他の処理方法:

NVIDIA DGX

私が言ったように、マイクロプロセッサはまだ大きな市場シェアを持っていますが、少しずつ動いていますが、最近強く参入している他の処理装置があります。 GPGPUまたは汎用GPU。 また、グラフィックカードのチップは通常SIMDまたはベクトルタイプであり、同じ命令を多数のデータに同時に適用できるため、パフォーマンスが向上します。

そして何よりも、コントローラーを変更して プログラムでこれらのGPUは、ハードウェアを変更することなく、CPUであるかのようにデータ処理に使用できます。つまり、専用GPUのようにグラフィックスだけでなく、一般的な処理にも使用できます。グラフィックカードによって達成されるFLOPSは、CPUのそれよりもはるかに高くなります。

それらがそのような驚異的なコンピューティングパフォーマンスを達成する理由は、それらがグラフで動作するように作られているためであり、それはそれらを動かすために多くの数学的計算を必要とします。 私が言ったようにSIMDであることに加えて、それらは通常、並列プログラミングパラダイムタイプに従います SIMT(単一命令-複数スレッド)、メモリ遅延が高い場合でも良好なスループットレートを達成します。

覚えておいてください 3Dグラフを生成するには、一連の三角形を平面上のW、X、Y、Z座標と組み合わせて、色(R、G、B、A)を適用し、サーフェスを作成し、照明を与え、サーフェスをテクスチャリングすることから始まるモデリングが必要です。 、混合など。 これらのデータと色の座標は、それらを処理するための構成可能なプロセッサが含まれていることを意味し、これらの座標は、GPU処理ユニットが機能するベクトルを正確に形成し、目的の計算を行うために使用されるものであると理解されています。 たとえば、CPUはX4X1X2X3 + Y4Y1Y2Y3、つまりX4 + Y1、次にX1 + Y2などを追加するために2つの追加命令を実行する必要がありますが、GPUは一度にそれを実行できます。

そのおかげで、CPUの最大5〜6分のXNUMXの非常に低いクロック周波数で動作し、はるかに高いFLOPSレートを実現するGPUがあります。 より高いFLOPS / W比。 たとえば、Intel Core i7Xは3960GFLOPSのコンピューティングパフォーマンスに達し、AMD Radeon R141Xは9GFLOPSを達成できます。これは、各GFLOPの概算コストが約290ユーロですが、5.632年にはNECEarthと呼ばれる日本のスーパーコンピューターです。シミュレーターは、ベクトルプロセッサーと0,08 TFLOPSの合計パフォーマンスで発売され、GFLOPSあたりのコストはそれぞれ2004 GFLOPSの数千のプロセッサーで構成されていたため、約41.000ユーロに達しました。

ご覧のとおり、ここに作成への関心があります 現在のGPUベースのスーパーコンピューター CPUを使用する代わりにNVIDIAまたはAMDから。 また、ヘテロジニアスコンピューティングも重要になりつつあります。つまり、さまざまなタイプの処理ユニットを組み合わせて、各操作をより短い時間またはより効率的に処理するユニットに委託します。 これは、CPUがロジックを処理し、GPUがグラフィックス、デジタル信号用のDSPなどを処理する同種のコンピューティングパラダイムと衝突します。

代わりに、提案どおりにすべてを使用してみませんか ヘテロジニアスコンピューティング パフォーマンスを最適化するため。 これらのチップはそれぞれ長所と短所があるので、それぞれに長所と短所があるので、それぞれに最善を尽くしてもらいましょう...

並列処理:

ケアリーバッジ2

そして、私は儲かることを望んでいませんが、少なくともそれほどではありません スーパーコンピュータードライブはい、並列処理の用語に戻り、もう少し説明したいと思います。 そして、それは、コンピューティングのほぼ最初から、並列処理が何らかの意味で強化されてきたということです。

  • ビットレベルの並列性:マイクロプロセッサが4ビット、8ビット、16ビット、32ビットおよび現在の64ビットからどのように進化したかをすべて見てきました(ただし、128、256、512などに達するいくつかのマルチメディア拡張機能があります)。 つまり、XNUMXつの命令でより多くのデータまたははるかに長いデータを操作できます。
  • データレベルでの並列処理:スカラーデータの代わりに、命令が動作するベクトルまたはデータ行列を使用する場合。 たとえば、スカラーはX + Yになりますが、DLPはX3X3X1X0 + Y3Y2Y1Y0に対応します。 これは特に、ビットレベルの並列性で説明した命令セットでこれらの拡張機能が行うことです。
  • 命令レベルでの並列処理:クロックサイクルごとに複数の命令を処理することを目的とした手法。 つまり、CPI <1を達成します。ここでは、パイプライン、スーパースカラーアーキテクチャ、およびその他のテクノロジを、それを達成するための主な方法として挙げることができます。
  • タスクレベルの並列処理:マルチスレッドまたはマルチスレッド、つまり、オペレーティングシステムのカーネルスケジューラによって提案された複数のスレッドまたはタスクを同時に実行することを意味します。 したがって、この場合のソフトウェアでは、各プロセスを並行して実行できるより単純なタスクに分割できます。 Linuxで-Lオプションを指定してpsコマンドを使用すると、LWP(Lightweight Proccess)のID、つまりライトプロセスまたはスレッドを含む列が表示されます。 この並列処理に到達する方法はいくつかありますが、次のようになります。
    • CMP (マルチプロセッサチップ):つまり、複数のコアを使用し、それぞれがスレッドを処理します。
    • マルチスレッド:各CPUまたはコアが同時に複数のスレッドを処理できること。 また、マルチスレッド内では、いくつかの方法を区別することもできます。
      • 一時的なマルチスレッド またはスーパースレッド:これは、UltraSPARC T2などの一部のマイクロプロセッサが使用するものです。これは、一方のスレッドともう一方のスレッドの処理を交互に行うことですが、実際には両方が同時に並行して処理されるわけではありません。
      • 同時マルチスレッディングまたは SMT (同時マルチスレッディング):この場合、それらは並列に処理されるため、CPUリソースが動的に計画され、複数のブロードキャストが可能になります。 これはAMDまたはIntelが使用しているものですが、Intelはハイパースレッディングという商標を登録していますが、これはSMTにすぎません。 ただし、AMD ZenでSMTを採用する前は、AMDはFusionでCMT(Clustered MultiThreading)を使用していました。つまり、論理コアではなく物理コアに基づくマルチスレッドです。 つまり、SMTでは、各コアまたはCPUは、これらのタスクを並行して実行するために複数の論理コアであるかのように機能しますが、CMTでは、複数の物理コアを使用してこのマルチスレッドを実行します...
  • メモリレベルの並列性:システムにインストールされているメモリの量を指すものではないため、紛らわしい用語です。 これは、同時に行うことができる保留中のアクセスの数を指します。 ほとんどのスーパースカラーはこのタイプの並列処理を備えており、キャッシュフォールトやTLBなどのさまざまな要求を満たすいくつかのプリフェッチユニットの実装のおかげで実現されています。

これらの並列処理のレベルに関係なく、他のレベルと組み合わせることができます アーキテクチャの種類 次のように、より多くの並列処理を取得します。

  • スーパースカラーとVLIW:簡単に言えば、これらは、複数のFPU、複数のALU、複数のブランチユニットなど、複数の複製された機能ユニットを持つ処理ユニット(CPUまたはGPU)です。 つまり、これらのタイプのユニットで実行される操作は、使用可能なユニットの数に応じて、1 x3または2x3などで実行できます。 たとえば、プロセスまたはプログラムを実行する場合、命令Y = X + XNUMX、Z = XNUMX + XNUMX、およびW = T + Qを処理する必要がある場合、スカラーでは、最初の操作が終了するのを待ってからXNUMX番目の操作を入力する必要があります。 XNUMXつは、XNUMXつのALUがある場合の変更で、同時に実行できます... * VLIW:VLIWの場合、通常存在するのは一部のユニットのレプリカであり、コンパイラは命令を調整してそれらを幅全体に適合させます。 CPUの数と、各サイクルですべてまたはほとんどのユニットが占有されます。 つまり、VLIWは、ハードウェアアーキテクチャに準拠するために、特定の方法でパッケージ化されたいくつかの単純な命令で構成される長い命令です。 これには、ここでは説明しない長所と短所があることをどのように理解しますか...
  • パイプライン:チャネリングまたはセグメンテーションは、回路を分割するレジスタを導入し、各機能ユニットをステージに分離することによって実現されます。 たとえば、3つの深さのパイプラインがあるとします。その場合、機能ユニットは、チェーン製造プロセスであるかのようにXNUMXつの独立した部分に分割されます。 したがって、入力された最初の命令が最初のステージを空にすると、別の命令がすでにこの最初のステージに入っている可能性があり、実行が高速化されます。 一方、パイプライン化されていないシステムでは、最初の命令が完全に終了するまで次の命令を入力できませんでした。
  • アウトオブオーダーの実行:整然としたアーキテクチャでは、実行中のプログラムを構成するためにコンパイラが命令を生成したときに、命令が順番に実行されます。 一方、これは最も効率的ではありません。命令の結果をブロックしているイベントを待機している間、CPUに時間がかかるか、バブルまたはデッドタイムが発生する可能性があるためです。 一方、順序が狂っている場合は、順序に関係なく常にCPUに命令が供給されるため、生産時間が長くなります。 これは、私が入らないアルゴリズムによって実現されます。

一般に、現在のほとんどのCPU、Intel、AMD、IBM POWER、SPARC、ARMなどは、すべてのレベルの並列処理、パイプライン、スーパースカラー、アウトオブオーダー実行、レジスタリネーミングなどを組み合わせて使用​​して、さらに多くの機能を実現しています。パフォーマンス。 詳細を知りたい場合は、相談することができます フリンの分類法、システムを差別化する:

  • SISD:単一のデータで単一の命令のみを処理できる処理装置。 つまり、命令とデータをXNUMXつずつ順番に実行します。
  • SIMD:単一の命令と複数のデータ。この場合、並列処理はデータパスにのみ存在し、制御パスには存在しません。 現在の処理ユニットは、同時に複数のデータに対して同じ命令を実行することができます。 これは、マイクロプロセッサ内でこれを実現したベクトルプロセッサ、GPU、および一部のマルチメディア拡張機能(SSE、XOP、AVX、MMXなど)の場合です。
  • ミスド:この場合、並列処理は命令レベルで行われるため、単一のデータストリームで複数の命令を実行できます。 XとYがあり、X + Y、XY、X・Y、X / Yを同時に操作できると想像してください。
  • MIDM:複数のデータに対して同時に複数の命令を実行できるため、すべての中で最も並列です...

そして、これにより、並列処理の原則は非常に明確になると思います。 さらに深く知りたい場合は、この記事の最後の領域に残し、私の人生の最後の17年間に取り組んできたソースにアクセスできます。

メモリシステム:

RAMモジュール

使用する処理方法や処理装置が何であれ、メモリが必要です。 しかし、ここでは、並列処理により、やや困難な問題が発生します。 メモリシステムは一貫している必要があります 誤ったデータを生成しないように一連の特性を備えています。 心配しないでください。例を挙げて非常に簡単な方法で説明します。

あなたが持っていると想像してください シングルCPU 加算命令を実行する場合、これがZ = Y + Xであると想像してください。この場合、CPUが加算命令を取得し、その算術ユニットにメモリ位置YとXを加算するように指示するため、問題はありません。データと最後にそれはメモリのZ位置に結果を保存します。 問題ない! しかし、複数のCPUがある場合はどうなりますか? そのCPUAがZ = Y + Xを実行しているのと同じ例を想像してみてください。ただし、別のCPUBと一緒にX = Y-2を実行しています。

まあ、 それに値を与えましょう 各文字に:Y = 5、X = 7。 その場合、CPU Aが最初に動作する場合、Z = 5 + 7、つまりZ = 12になります。ただし、CPU Bが最初に動作する場合、X = 5-2 = 3であるため、メモリにアクセスし、 Xが格納されているアドレスに3を格納するため、CPU Aがその位置にアクセスすると、同じ命令が実行されますが、結果はZ = 3 + 7、つまりZ = 10になります。 私たちはすでに、私たちが買う余裕のない深刻な失敗を抱えているか、何も適切に機能しません...

このため、メモリシステムは一連の この一貫性を維持する方法 結果が正しくなるように、前または後にどの操作を実行する必要があるかを把握します。 自宅のコンピューターでもこれが発生します。同じメモリにアクセスするコアがいくつかあるため、それだけでなく、マルチスレッド、スーパースカラーシステム、およびアウトオブオーダー実行を利用するマイクロアーキテクチャも使用されています。是正措置が取られない場合、そのような一貫性がたくさんあります。 これらの何千ものスーパーコンピューターを想像してみてください...

しかし、もちろん、 製造コストの削減 チップ質量と 技術の成熟 ネットワークは、相互接続された多くのプロセッサを搭載したマシンへの急速な変化をもたらし、メモリシステムの変更も余儀なくされました(カップリングを参照)。

その カップリング 私が言及したことは、すべての処理ユニットによって共有されるメインメモリを備えた密結合システムから始まり、時間とともに進化してきました。 また、各プロセッサが独自の独立した(分散)メモリを備えたシステムと疎結合されています。 一方、最近、私が言及したXNUMXつのシステムは徐々に希薄化され、 ハイブリダイゼーション、UMA(Uniform Memory Access)およびNUMA(Non-Uniform Memory Access)スキームを使用しますが、これは私が詳細に話すことができる別のトピックであり、別のメガポストを提供します。

情報が必要な場合は、 UMAアーキテクチャ アクセスを実行しているプロセッサに関係なく、均一なメインメモリ位置のいずれかへのメモリアクセス時間は同じです(アクセスは読み取りまたは書き込み操作として理解しています)。 それは一元化されているからです。

一方、 、それは均一ではなく、アクセス時間はそれを要求するプロセッサに依存します。 つまり、ローカルメモリと非ローカルメモリ、つまり共有メモリと物理分散メモリがあります。 ご存知のように、これを効率的に行うには、平均レイテンシを最大に短縮する必要があります。また、プロセッサがローカルで実行するデータと命令を格納できる場合はいつでも。

将来:量子コンピューティング

La ポストシリコンだった そして、現在のマイクロエレクトロニクスのすべての代替技術はまだかなり未成熟であり、開発段階にあります。 根本的な移行はないと思いますが、現在のシリコンの可能性は物理的な上限に達するまで尽き始め、その後、シリコンを基盤とし続けるハイブリッド技術の時代が到来すると思います。量子コンピューティングに飛躍をもたらすためのもう少し遠い未来...

その移行では、私は思う ARMは重要な役割を果たします エネルギー効率(パフォーマンス/消費)のメニーコア、そしてこれはすでに非常に個人的な意見です。おそらく2020年代にはシリコンの限界に達し、2030年代には投資を活用してシリコン技術で製造され続けるでしょう。ファウンドリの数を増やして少し広くすると、ダイが大きくなると製造コストが高くなりますが、ファウンドリを更新するためにこれらの巨額の投資を行う必要がない場合は、安定性が価格に有利になると思います。 ただし、設計者側では、製造サイズを縮小せずに表面積を増やしてパフォーマンスを向上させる価値があると想定するために、今後のマイクロアーキテクチャを大幅に甘やかし、マイクロアーキテクチャにさらに取り組む必要があるため、より多くの開発努力が必要になります。私が名前を付けたARMのように効率的です...

量子コンピューティングのトピックに戻ると、いくつかは実際にすでに構築されています 量子コンピューターしかし、正直なところ、私が見たものを見ると、それらはまだかなり限られており、企業にとって実用的なものになるにはさらに多くの開発が必要であり、家庭に手頃な価格になるのに十分成熟するまでにはさらに多くの開発が必要です。 このセクションを開いた画像でわかるように、それらはまだ非常に複雑なサイエンスフィクションのオブジェクトのように見え、絶対零度(-273ºC)に近づけるために冷却する必要があります。

この温度は、の場合のように、その実用的で大規模なアプリケーションを制限します 超伝導体。 超伝導体の分野では、重要な措置が講じられていますが、動作温度はまだ0ºCをはるかに下回っていますが、室温または通常のマージンで動作させることができれば非常に興味深いでしょう。 温度障壁に加えて、現在のバイナリコンピューティングの基礎と基礎が量子コンピューティングでは機能しないという事実など、他の問題のある要因に対処する必要があります...

超伝導体について言及したかったのは、これから説明する量子ビットを量子化または分離できるようにするために、一部の量子コンピューターの基礎となっている技術のXNUMXつだからです。 しかし、それは基本的な技術だけではありません。 イオンベースの量子コンピューター (XNUMXつ以上の電子が少ない原子)レーザートラップにトラップされたキュービットの電子数に基づきます。 別の選択肢は 核スピンに基づく量子計算、分子のスピン状態を量子ビットとして使用..。

落とし穴はさておき、非常に簡単な方法で説明しようと思います 量子コンピューティングとは、すべての人が理解できるように。 要するに、これは並列処理のさらなるステップであり、将来の量子コンピューターがそのような量のデータや情報を処理できるようにすると同時に、スーパーコンピューターでは解決できない新しい発見や問題の解決を可能にします。 したがって、それらは技術革命を表すだけでなく、他の分野の科学技術と人類の幸福のための大きな後押しとなるでしょう。

私たちは一緒に行きます 量子コンピューターとは何かの簡単な説明。 現在のコンピューターはバイナリシステムに基づいています。つまり、ゼロまたはXNUMXの値(回路の観点から見るとオンまたはオフ、高電圧または低電圧)をとることができるビットを処理します。これらのコードバイナリは、プログラムを実行し、今日のコンピューターで実行できるすべてのことを実行するために処理できる情報です。

対照的に、量子コンピューターでは、量子ビット( キュビット、量子ビットの)は、オンまたはオフの状態(1または0)で機能するだけでなく、両方の状態、つまり、 状態の重複 (オンとオフ)。 これは、従来の力学ではなく、量子物理学の法則に基づいているためです。 そのため、デジタルまたはバイナリロジックは機能せず、私たちを待っている新しいコンピュータの世界の基盤となる別の量子ロジックを開発する必要があると言いました。

IBMQプラットフォームで練習する:IBMが16キュービット量子コンピューターを誰でも使用できるように設定したオンラインラボ。 これは、プログラムの作成に使用できるWebベースのグラフィカルインターフェイスを備えたエディターです...

したがって、ビットを置き換えるこの新しい情報キュービットの単位は、この並列性または二重性により潜在的な可能性があり、より多くの可能性またはデータを一度に処理できます。 私はあなたを置きます 理解を深めるために、追加ビットが0の場合は1ビット(a、b)を加算し、その追加ビットの値が0の場合は減算するプログラムがあるとします。したがって、メモリにロードされる命令は(ビットが1の場合はa、b)を加算し、XNUMXの場合は(sub a、b)を加算します。加算と減算の両方の結果を得るには、XNUMX回実行する必要があります。 その余分なビットの状態が同時に両方の状態になる可能性がある場合はどうなりますか? もうXNUMX回実行する必要はありませんよね?

別の例として、非量子コンピューターで3ビットを超えるNOT命令がスローされたとします。 上記の命令の起動時に、これらの010ビットの値が101の場合、結果は111になります。一方、キュービットを使用した同じ命令では、各値が同時に両方の状態になる可能性があり、結果は次のようになります。同時に可能なすべての値:110、101、100、011、010、001、000、XNUMX。これは 科学シミュレーション、暗号化、数学的問題解決など、それはただ驚くべきことです。

このテクノロジーをリードしているのは誰ですか? さて、現時点ではそうです IBMはリーダーです、グーグル、インテル、その他の企業や大学も、すでに述べたものに追加の問題がありますが、毎回、より多くの量子ビットを処理できる量子コンピューターのプロトタイプを競合して発売していますが、それは時々それらの量子ビットのいくつかが必要なことです「パリティ」のキュービットとして、つまり、結果が誤っていないことを確認します。

問題:電力消費と発熱

マイクロプロセッサ中心のマザーボードのサーモグラフィ(ホットスポット)

El これらの大型機械の消費と熱放散は大きな課題です エンジニア向け。 冷却システムは、コンピューター自体の消費量に追加する必要のある電気消費量も想定しているため、この消費量を大幅に削減し、安価な方法で熱を処理することを目的としています。 そのため、データセンターを海中に沈めて、独自の水を冷却液として使用するなど、いくつかのエキゾチックなアイデアが検討されています(例:商用ブランド フロリナート フッ化物ベースのクーラントである3Mから)、複雑な空調またはクーラントポンプシステムを節約します...

私が言ったように、 Googleはエネルギー料金が最も安い地域を検索します サーバーセンターを設置するために、違いはわずかですが、何年にもわたって電気代を何百万ドルも節約できるので、スペインでは、愛するエンデサが私たちに与えている料金と複雑になっていると思います...

に対する 熱密度、それはまた別の根本的な問題を引き起こします、そしてそれはサーバーまたはスーパーコンピューターのコンポーネントの寿命の減少であり、それはスーパーコンピューターが持つべき特性のセクションで説明する耐久性と耐用年数の特性に影響を与えます。 そして、その熱は回路コンポーネントの電気的性能によるものであり、性能が高すぎず、25〜30%の範囲である内燃機関の場合と同様に、熱の形で消費されるエネルギーの大部分を浪費します。ガソリンの場合は30%以上、ディーゼルの場合は40%以上、一部のターボの場合は50〜25%。 つまり、たとえばガソリンの場合、消費するガソリンの30%または75%だけが実際に車輪に動力を伝達するために使用され、残りの70〜90%は要素の摩擦のために熱として無駄になります。 電気モーターはXNUMX%以上の効率に達することができると言う詳細として...

そのモーターの例はあまり関係がありませんが、これで、デバイスで熱を見るときはいつでも、エネルギーが熱の形で浪費されていることを意味することをお知らせしたいと思います。

これらのXNUMXつの問題が提示され、明確になったら 熱/エネルギー比、スペインのようにkWhが1ユーロで充電されている国に設置された場合、4,04MWの電力を消費する中国のスーパーコンピューターTianhe-0,12Aの例を挙げます。これは480ユーロの消費を意味します。 /時間(4000 kW x 0,12ユーロ)、一年中接続されていることを考慮すると、支払われる年間消費量は4.204.800ユーロ(480x24x365)になります。 XNUMX万ユーロは、かなりの金額の電気代ですよね?

そして、それらの€4.204.800の回路の非効率性のためにそれを知っているならば、それを支払うことはさらに厄介です ほんの一部だけが私たちにとって本当に役に立ちました、および他の良い割合は熱の形で無駄になっています。 そしてそれだけでなく、私たちは役に立たないが私たちのチームに影響を与えるその熱を軽減するためにお金を投資しなければなりませんでした。 さらに、環境を考慮すると、この不均衡な消費は、エネルギーが何らかの種類の汚染(再生不可能)を生成するソースから取得される場合にも大きな問題になります。

もう500つの典型的なケースは、現在Top2018でXNUMX位を占めている中国のスーパーコンピューターです。つまり、XNUMX年には最高の計算能力を備えています。 名前が付けられています Sunway TaihuLight 石油研究、その他の科学的側面、製薬研究、工業デザインを対象としています。 RaiseOS(Linux)を実行し、メニーコア(各チップには40.960コア、合計26010コア)の合計256個のSW10.649.600マイクロプロセッサ、20 PBのストレージを完成させるハードドライブ、追加すると1,31PBのRAMメモリを使用します。すべてのモジュール。 これにより、93 PFLOPSの計算能力が得られます(わからない場合は、後でFLOPSとは何かを説明します)。 価格は約241億15万ユーロ、消費量は16 MWであるため、最もエネルギー効率の高い(6,051 GFLOPS / W)ランキングで15位を占めています。 これらの1MWは、Tianhe-3,75Aの電気料金にXNUMXを掛ける必要があることを意味します...

計算電力比は、上記の計算量を生成するために必要なワット数に関しても測定されます、と私は話します FLOPS / Wユニット。 マシンが生成できるワットあたりのFLOPSが多いほど、効率が高くなり、電気代と生成される温度が低くなるため、マシンを冷却するためのコストも低くなります。 設置された冷凍のインフラストラクチャは、私たちが持っている設備で適切に冷凍できない場合、将来の拡張を可能にしないため、この関係でさえ制限要因になる可能性があります。 これは、彼らが持たなければならない特性のXNUMXつであるスカラー性にも注意を払うことを忘れないでください。

スーパーコンピューターの分類法:

スーパーコンピューター

まあ、する方法はたくさんあります スーパーコンピューターを分類する、しかし私は特定の要因に従ってそれらを分類する方法を説明することに興味があります。 私が言ったように、多くの人はサーバーをスーパーコンピューターとは見なしておらず、スーパーコンピューターであるため大きな間違いだと思います。むしろ、スーパーコンピューターはコンピューティング機能を強化しようとする特定の種類のサーバーです。

だから私はスーパーコンピューターの種類と言うでしょう その用途に応じて 音:

  • サーバ:これは非常に一般的なタイプのスーパーコンピューターであり、いくつかのマイクロプロセッサーといくつかのRAMモジュール、およびいくつかのRAIDレベルで構成されたハードドライブから、数千のマイクロプロセッサー、大量のRAM、および大容量のストレージを備えた大型マシンまでさまざまです。 また、ストレージ、ホスティング、VPS、メール、Webなどのサービスを提供することを目的としているため、サーバーと呼ばれています。
  • スーパーコンピューター:サーバーファームとスーパーコンピューターの視覚的なレベルの違いはゼロであり、XNUMXつを区別できませんでした。 それらを区別する唯一のことは、スーパーコンピューターが複雑な数学的または科学的計算、シミュレーションなどを実行することを目的としていることです。 したがって、ここで最も関心のある品質は計算の品質です。 ただし、このグループに付けたスーパーコンピューターという用語を混同しないでください。サーバーとメインフレームはスーパーコンピューターではないと考えてください(もう一度主張します)。
  • メインフレーム:これらは特別なスーパーコンピューターですが、定義上、ある種の民事管理や銀行取引など、大量のデータを処理するための非常に大容量の大型で高価なマシンです。 一方、メインフレームとスーパーコンピューターには明らかな違いがあります。つまり、メインフレームは外部データベースなどの大量のデータにアクセスする必要があるため、I / O機能を強化し、信頼性を高める必要があります。 一般に、メインフレームは政府省庁や特定の銀行や企業によって使用されていますが、スーパーコンピューターは科学者や軍隊によってより切望されています。 IBMは、チップなどの計算獣に基づいたz / Architectureや、SUSELinuxなどのディストリビューションを搭載したメインフレームのリーディングカンパニーです...

タイプについて インフラストラクチャによると:

  • クラスタリング:ネットワークで接続されたコンピューターを結合して、大型のスーパーコンピューター、メインフレーム、サーバーを作成する手法です。 言い換えれば、それは前のセクションで話した基礎です。
    • 一元化:メインフレームとほとんどのサーバーまたはスーパーコンピューターなど、すべてのノードが同じ場所に配置されます。
    • 分散:すべてのノードが同じ場所に配置されているわけではありません。離れた場所にある場合や地理的に分散している場合もありますが、相互接続され、13つだけであるかのように動作します。 半島全体に分散した13台のスーパーコンピューターで構成されるスペインのスーパーコンピューティングネットワークに例があります。 これらの2は、科学界に非常に高性能なコンピューティングを提供するために相互接続されています。 それを構成するスーパーコンピューターの名前には、MareNostrum(バルセロナ)、Picasso(マラガ)、FinisterraeXNUMX(ガリシア)、Magerit and Cibeles(マドリード)などがあります。
  • グリッドコンピューティング:これは、非集中型の異種リソースを活用して使用するもうXNUMXつの方法です。一般に、世界中に分散しているさまざまなデバイスの計算容量、ストレージなどを一部のアプリケーションに使用できます。 たとえば、多くのユーザーの数千または数百万のデスクトップまたはラップトップ、スマートフォンなどの計算能力に参加できます。 それらはすべて、インターネットを介して相互接続されたメッシュを形成し、問題を解決します。 たとえば、SETI @ homeは、BOINCプラットフォーム(ネットワークコンピューティング用のBerkeley Open Infrastructure)で動作する分散型またはメッシュコンピューティングプロジェクトであり、コンピューターに簡単なソフトウェアをインストールして、リソースに参加し、追加することで共同作業を行うことができます。地球外生命の探索のためのその素晴らしいネットワークに彼らを。 私に発生する別の例は、合法ではありませんが、コンピューターのリソースの一部を乗っ取って暗号通貨をマイニングするマルウェアです...

それらは存在しますが それらをカタログ化する他の方法、これらが最も興味深いと思います。

スーパーコンピューターとは何ですか?

数式

スーパーコンピューターが持つこれらの高いストレージ、メモリ、または計算能力により、特定の科学的シミュレーション、数学の問題の解決、研究、ホスティング、接続された数千または数百万のサービスの提供など、通常のPCでは実行できない多くのことが可能になります。クライアントなど要するに、彼らは私たちが知っている最良の方法です 人間の進歩を加速するただし、調査対象の一部は破壊的(軍事目的で使用)またはプライバシーの盗難に使用されます。たとえば、特定のソーシャルネットワークサーバーやその他の確かに知っているケースなどです。

サーバー、ビッグデータ、クラウド..。

ビット付きネットワークケーブル

そのスーパーコンピューター サービスを提供する ご存知のように、それらはサーバーとして知られています。 これらのサービスは最も多様である可能性があります。

  • ファイルサーバー:それらは、ホスティングサービスから、またはWebページ、ストレージ、FTPサーバー、異種ネットワーク、NFSなどのホスティングからのものである可能性があります。
  • LDAPおよびDHCPサーバー:LDAPの場合のように集中ログインやDHCPの場合のように動的IPを提供するなどの機能は別のものですが、以前のサーバーと同様にデータを格納する他の特殊なサーバー...
  • Webサーバー:データも保存するため、前のグループに含めることができますが、ネットワークからHTTPまたはHTTPSプロトコルを介してアクセスできるように、純粋にWebページの保存に重点を置いたサーバーです。 したがって、お客様はブラウザからこのページにアクセスできるようになります。
  • メールサーバー:顧客がメールを送受信できるようにメールサービスを提供できます。
  • NTPサーバー:インターネットにとって非常に重要な、時刻同期のためのサービスを提供します。 これらはNetworkTime Protocolの略語であり、レイヤーに分散されており、最下位のレイヤーが最も正確です。 これらの主要な層は、年間を通じて変動が非常に少ない原子時計によって管理されているため、非常に正確な時間を提供します。
  • その他:他のサーバーは、大規模なデータベース、ビッグデータ、さらには多数のクラウドサービス(IaaS、PaaS、CaaS、SaaS)を保存できます。 例としては、VPS(Virtual Private Server)があります。つまり、大規模なサーバー内で数十または数百の分離された仮想サーバーが仮想マシン内で生成され、顧客は、支払いをしなくても、必要なタスクのためにこれらのサーバーのXNUMXつを所有することができます。実サーバーとインフラストラクチャとメンテナンスの料金を支払うだけで、プロバイダーからこのサービスを取得するための料金を支払うだけです...

そしてこれで、このカテゴリーの中で最も優れたものを完成させます。

IA:

電子回路の脳

一部のスーパーコンピューターは、 AIシステムの実装(人工知能)つまり、ソフトウェアアルゴリズムまたはニューラルチップのいずれかによって実装された人工ニューラルネットワークを使用して学習できる構造です。 私が今考えている例のXNUMXつは、IBM Blue GeneスーパーコンピューターとIBMとスタンフォード大学によって開発されたBlueMatterアルゴリズムで、スーパーコンピューターに人工の人間の脳を実装して、精神疾患やアルツハイマー病などの神経変性疾患。これにより、脳内で何が起こっているのかをよりよく理解し、新しい治療法を進歩させたり、私たちの最も神秘的な器官についてより深い知識を得ることができます。

また、私たちが使用する多くのAIサービスは、SiriやAmazon(EchoについてはAlexaを参照)などのスーパーコンピューターに基づいています。 しかし、おそらく私が最も興味を持っている例は IBM Watson、ワトソンとも呼ばれるAIコンピューターシステムを実装するスーパーコンピューターで、自然言語で作成された質問や、「料理」や味覚に心地よい食材の特定の混合物を知るなど、プログラムされたその他のインシデントに答えることができます。 。

これは、多数の書籍情報を含む大規模なデータベースに基づいています。 百科事典 (英語版ウィキペディアを含む)、および回答を提供するための情報を検索できる他の多くのソース。 これはIBMPOWER7マイクロプロセッサーに基づいており、約16 TBのRAMと、3万ドルを超えるコストのハードウェアである大量の情報を格納するための数PBのストレージを備えています。 さらに、その開発者は、毎秒500GBの情報を処理できると言っています。 そして嬉しいことに、それはいくつかの無料プロジェクトとSUSE Linux EnterpriseServerオペレーティングシステムに基づいています。

科学的応用:

しかし、スーパーコンピューターは主に 科学的応用、一般的な研究または特定の軍事用途のいずれか。 たとえば、量子物理学や原子核物理学に関する多数の計算、CERNスーパーコンピューターなどの物質に関する研究、基本的な分子や粒子の動作を理解するためのシミュレーション、空気力学の研究に使用されるCFDなどの流体シミュレーションを実行するために使用されます。レーシングカー、航空機などの

他の研究にも 化学、生物学、医学。 たとえば、特定の病気の行動をよりよく理解しようとしたり、腫瘍がどのように再生するかを再現したりして、癌のより良い解決策を見つけようとします。 ダン・ブラウンはマレノストルムについて、おそらく癌の治療法はそれから来るだろう、うまくいけばそうだ、そしてそれは早いほど良いだろうと言った。 UMA(マラガ大学)で彼は働いています ミゲル・ウジャルドン スーパーコンピューティングにおけるNVIDIACUDAの開発についてのみ、LxAでインタビューすることができ、彼は私たちの健康を改善するこれらの開発について話すことができます...自然現象の研究や予測など、他の実用的なアプリケーションも私に起こります天気、DNA鎖と突然変異、タンパク質の折り畳み、核爆発分析など。

これらすべての調査と調査については、 膨大な量の計算が必要です 非常に正確な数学者と大量のデータを非常に迅速に移動すること。人間が知性の助けを借りてそれを行わなければならない場合、解決策を見つけるのに何世紀もかかるかもしれませんが、これらの機械を使用すると数秒で開発することができます。残酷な量の数学的プロセス。

世界で最も強力なものは何ですか?

神威太湖

私はすでにいくつかのケースでそれをほのめかしています、 世界で最も強力な500台のスーパーコンピューターのリスト 定期的に更新されます。 それは Top500、これらのマシン、情報などに関する多数の統計、およびと呼ばれる別の特定のリストもあります。 Green500 これは、そのエネルギー効率に焦点を当てています。つまり、マシンが開発できる総FLOPSを測定するだけでなく、500台のマシンを最高のFLOPS / W比でランク付けすることにも焦点を当てています。

ただし、リストに表示されていないスーパーコンピューターよりもはるかに強力なスーパーコンピューターが存在する可能性があります。 秘密の政府プロジェクト または、その特性のために、次のセクションで説明するベンチマークテストで分析する特定の要件を満たしていないため、結果はこのTop500に公開されていません。 さらに、実際にはそれほどではありませんが、これらのパフォーマンス分析でスコアが高くなるように特別に最適化されているため、このリストの適切に配置されたマシンの一部がこれらの結果を変更している可能性があります。

ベンチマーク

FLOPSCPUとGPUのグラフ

これらのスーパーコンピューターをTop500リストに配置したり、リスト外のすべてのスーパーコンピューターのパフォーマンスを測定したりするテストは、すべての人によく知られています。実際、これらのテストは、自宅のコンピューターやモバイルデバイスで実行するテストと同等か同等です。あなたのパフォーマンス。 私はソフトウェアについて話している ベンチマーク。 これらのタイプのプログラムは、特定の数学演算またはループを実行する非常に特殊なコードであり、マシンがそれらを実行するのにかかる時間を測定するのに役立ちます。

Según 得られたグレード、それは上記のリストに掲載されるか、またはこのマシンが実際の世界で持つ可能性のあるパフォーマンスが、以前に詳細に説明した調査のために決定されます。 通常、ベンチマークは、処理装置だけでなく、RAM、グラフィックカード、ハードドライブ、I / Oなどの他のコンポーネントもテストします。 さらに、それらは、マシンが到達できるパフォーマンスを知るだけでなく、何を強化または拡張する必要があるかを知るために最も実用的です...

たくさん テストの種類 それらは、合成、低/高レベルなどに分類できます。 前者は、パフォーマンスを測定するために特別に設計されたテストまたはプログラム(Dhrystone、Whetstoneなど)ですが、低レベルのものは、メモリのレイテンシなど、コンポーネントのパフォーマンスを直接測定するものです。 、メモリアクセス時間、IPCなど。 代わりに、高レベルのものは、コンポーネントのセットのパフォーマンス、たとえば、エンコード、圧縮などの速度を測定しようとします。これは、コンポーネント、ドライバー、および処理に干渉するハードウェアコンポーネントの全体的なパフォーマンスを測定することを意味します。 OSがそれを行うこと。 残りのテストは、エネルギー消費、温度、ネットワーク、ノイズ、ワークロードなどを測定するために使用できます。

おそらく、スーパーコンピューターのベンチマークを行うための最もよく知られているプログラムは リンパック、科学および工学システムのパフォーマンスを測定するために考案されたため。 このプログラムは浮動小数点演算を集中的に使用するため、結果はシステムのFPUの可能性に大きく依存します。これは、ほとんどのスーパーコンピューターで測定するのに最も重要なことです。 そして、これは、記事全体で非常に多く話し合った単位であるFLOPSを測定できる場所です。

たくさん FLOPS(XNUMX秒あたりの浮動小数点演算) これは、コンピューターが3秒間に実行できる計算または浮動小数点演算の数を測定します。 コンピューターは、整数と浮動小数点、つまり、自然数のセット(…-2、-1,0,1,2,3、-3、…)のXNUMX種類の演算を実行できることを既にご存知でしょう。 )および有理数(分数)のセットを使用します。 シミュレーション、XNUMXDグラフィックス、または複雑な数学的計算、物理学、工学を扱う場合、正確に言えば、これらの浮動小数点演算が最も豊富であり、それらをより迅速に処理できるマシンに関心があります...

多重名 略称 等価
- フロップ 1
キロ キロフロップス 1000
メガ MFLOPS 1.000.000
ギガ GFLOPS 1.000.000.000
テラ TFLOPS 1.000.000.000.000
ペータ PFLOPS 1.000.000.000.000.000
エクサ エフロップス 1.000.000.000.000.000.000
アルファベットのゼット ゼットフロップス 1.000.000.000.000.000.000.000
ヨータ イフロップス 1.000.000.000.000.000.000.000.000

つまり、私たちは機械について話しているのです Sunway TaihuLight 最大負荷で毎秒約93.014.600.000.000.000の浮動小数点演算を実行できます。 印象的!

スーパーコンピューターの部品:それらはどのように構築されていますか?

スーパーコンピューターのノード

あなたはすでに記事を通してそれらの多くの写真を見てきました サーバーファーム、廊下のように配置された大きなクローゼットを相互接続する、天井または床の下に多数の配線がある典型的な大きな部屋。 さて、これらのキャビネットが何であるか、そしてそれらが内部に何を含んでいるかを見る時が来ました、しかしこの時点で、あなたは私たちが話していることをすでにかなりよく知っていると思います。

スーパーコンピューターの部品:

スーパーコンピューターの部品

IBMスーパーコンピューターのアーキテクチャーの前の画像を見ると、非常によくわかります。 それらはどのように構成されていますか。 よく鑑賞できます パーツ 最も単純なものから組み立てられたセットまで。 ご覧のとおり、基本コンポーネントはチップ、つまりベースとして使用されるCPUまたはマイクロプロセッサです。 たとえば、AMDEPYCだと想像してみてください。 次に、AMD EPYCは、通常1つまたは2つのソケットを備えたマザーボードに挿入されるため、MP以外の機器に搭載されているマザーボードとは対照的に、それぞれにXNUMXつまたはXNUMXつのEPYCが搭載されます。

さて、私たちはすでにいくつかのチップを備えたボードを持っています、そしてもちろんマザーボードには通常のコンポーネントも追加されます。 プラカベース 家庭用コンピュータ、つまりメモリバンクなど。 これらのプレートのXNUMXつはしばしば呼ばれます 計算車 あなたが写真で見るように。 そして、それらは通常、金属製の引き出しに単独で配置されるか、いくつかにグループ化されます。 これらの引き出しはあなたが悪魔の写真で見るものです ノードカード。 これらのノードまたは引き出しは、通常、グループごとの標準的な測定値を持つレールに挿入されます(ミッドプレーン)、必ずしもすべてがコンピューティングカーのノードに対応しているわけではありませんが、特定のベイは、他の「引き出し」またはネットワークカードとこれらすべての要素を他の要素と相互接続するリンクシステムを備えたノードを収容するために、下部と上部が空いたままになっていますキャビネット、PSUまたは電源、RADIで構成されたハードドライブを含むその他のトレイなど。

これらの「引き出し」またはノードが挿入されるレールは、ブレードとXNUMXつの可能な方法で取り付けられます。  ラック(ラック)、 別の写真にあるようなものです。 すでに述べたように、通常、内部に入る要素がデスクトップコンピュータタワーの場合と同じように収まるように標準の測定値があり、インチ単位の測定値であるため、ベイにコンポーネントを挿入するときに問題はありません。 さらに、ラックは通常、単独で移動することはありません。必要に応じて、他の補助要素を備えた大きなキャビネットのように見えるグループにグループ化することもできるためです。

メインフレーム、サーバー、またはスーパーコンピューターのサイズに応じて、キャビネットの数は増減しますが、通常は強力なものを使用して、ネットワークカードによって相互に相互接続されます。 相互接続システム 高性能と 光ファイバ、単一のコンピューターとして機能するようにします。 分散型のキャビネットについて話していることを忘れないでください。したがって、これらのキャビネットは同じ建物内に配置することも、他の場所に分散させることもできます。その場合、WANまたはインターネットネットワークに接続して連携します。 ちなみに、自宅で最速のファイバー接続を馬鹿にするネットワーク...

冷却の種類:

Googleデータセンターの冷却

私たちはすでに懸念について話しました 冷凍実際、サーバーファームやデータセンターに入るときに目立つのは、一部のドラフトに通常見られる大きなノイズです。 これは、システムを適切な温度に保つ必要があるこれらの冷却システムのためです。 そして、上の画像に表示されているのは、これらのセンターのXNUMXつの補助冷凍システム全体が配置されている部屋以上でもそれ以下でもありません。これは、非常に大きく、複雑で、維持するのが「安価」ではないように見えるためです。

空冷式のものは巨大なものが必要です エアコンルームあなたがあなたのガジェットを置くための夏の法案について不平を言うならば、これらを想像してください。 そして、それは私が前に言ったその大きなノイズとドラフトを生成します。 そして存在する場合 液体冷却、パイプの洗練されたフレームワーク、結果として生じる漏れを回避するための検査、および数千または数百万リットルの水を使用する必要があることは、評価されているようにそれほど良くはありません。

これらの大量の水を無駄にしないように、処理プラントで再生水を使用したり、雨水を回収したりすることについて説明します。また、前述したように、データセンターの場所についても説明します。 海中に またはプラットフォーム上 海上で海水を冷媒として使用します。 現在、水は熱源を通過してこれらの余分な角度を抽出し、次に温水が冷却タレットにポンプで送られ、再び冷却されてサイクルが再開されます。 高価な流体圧縮機を使用せずに、交換システムで他の液体冷媒を使用して水の温度を下げる他の実験方法も提案されている。

相互接続ネットワーク:

スーパーコンピューターのネットワークリンク

通過するネットワーク 相互接続 サーバーまたはスーパーコンピューターのさまざまなノードとラックは超高速光ファイバーネットワークです。これは、超並列グル​​ープ化要素のこのパラダイムの効果を低下させるボトルネックを回避する必要があるためです。 マシンが外部に接続されている場合、つまりインターネットに接続されている場合、マシンが処理する帯域幅は想像できるように非常に大きいということです。

たとえば、MyrinetおよびInfiniandタイプのクラスター相互接続テクノロジーが一般的です。 たとえば、 ミリネット これは、このタイプの接続用に特別に開発されたネットワークカードで構成されており、パーツのセクションで説明するドロワーまたはノードに配置されます。 単一のコネクタに接続された光ファイバーケーブル(上流/下流)は、それらを出入りします。 相互接続は、キャビネット内にあるスイッチまたはルーターを介して行われます。 また、フォールトトレランスが優れている傾向があり、10ギガビット/の速度を達成するように進化しています。

その代わりに、 インフィニバンド それはより高度であり、最も使用されている方法です。 これは、高速、低遅延、低CPUオーバーヘッドを備えたシステムであり、Myrnetに比べて利点があり、システムの相互接続を管理するための最小値を差し引いて、CPUパワーを使用目的に使用できます。 。 また、これは以前のような会社ではなく、IBTAと呼ばれる協会によって維持および開発されている標準です。

Myrnetと同様に、Infinibandは、接続にネットワークカード(PCI Expressスロットに接続)を使用し、光ファイバーケーブルを使用します。 双方向シリアルバス これにより、長距離に関連する並列バスの問題が回避されます。 シリアルであるにもかかわらず、各リンクの各方向で2,5 Gbit / sの速度に達することができ、約96Gbpsの一部のバージョンで最大スループットに達します。

メンテナンスと管理:

サーバーを持つシステム管理者の女性

スーパーコンピューターまたはサーバーには、 人員の大隊、それらのすべては、マシンが実際に持っている機能やサービスに本当に興味を持っています。 通常、私たちは自宅のコンピューターで使用されており、システムのシステム管理者であり、それを使用するユーザーでもある傾向があります。 しかし、それはこれらの場合には起こりません。サーバーの場合はユーザーがクライアントになり、スーパーコンピューターの場合はユーザーが科学者またはそれを使用している人になります...

  • エンジニアと開発者:彼らは機械または操作が適切であるように注意することができます。
  • システム管理者:システム管理者は、スーパーコンピューターにインストールされているオペレーティングシステムを適切に動作するように管理します。 一般に、これらのサーバーまたはスーパーコンピューターには通常、デスクトップ環境やグラフィカルインターフェイスがないため、すべては通常、端末から実行されます。 これが、システム管理者がダム端末を介して物理的にマシンに接続できる理由です。リモート管理が可能な場合は、sshやその他の同様のプロトコルを介してリモートで接続し、必要なコマンドを実行します。

sshターミナルLinux

  • 他の管理者:データベース、Webサイト、およびその他のシステムがマシンに存在する場合。
  • セキュリティの専門家:それらにはいくつかのタイプがあり、物理的または境界のセキュリティを担当するものもあります。つまり、監視カメラ、データセンターへのアクセスのセキュリティ、起こりうる事故(例:火災)などを回避するものですが、また、攻撃の可能性を回避するためにシステムを保護するセキュリティの専門家もいます。
  • 技術者:インフラストラクチャの保守を担当する技術者、ネットワーク技術者、損傷したコンポーネントの交換または修理を担当する技術者など、最も多様なものもあります。 通常、ダム端末があり、ソフトウェアがそれらに損傷したコンポーネントを通知またはマークします。グリッドゲームのように、一連の座標を提供して、技術者がどの通路とラックに交換するかを認識できるようにします。失敗している特定の要素。 そのため、廊下やラックは駐車場のようにマークされます。 さらに、部屋自体の中には通常、故障したものを交換できるように予備の要素の箱が付いた棚があります。 もちろん、これはホットに、つまりシステムの電源を切らずに行われます。 彼らはノードを抽出し、コンポーネントを交換し、ノードを挿入して接続し、残りは作業を続けます...

私が用語を言ったとき ダムターミナル私は、これらのタイプのセンターに通常見られ、スクリーンとキーボードを備えたホイール付きのタイプのテーブルについて言及しています。 この配電盤をサーバーまたはスーパーコンピューターに接続して、技術者またはシステム管理者がチェックを実行できるようにすることができます。

オペレーティングシステム:

ご存知のように、Linuxはデスクトップセクターを征服することを目的として作成されましたが、逆説的に、Linuxは今日支配されていない唯一のセクターです。 ザ・ デスクトップはMicrosoftによってほぼ独占されています そしてそのWindows、それに続いてApple MacOSがあり、GNU / Linuxのシェアは約6-10%と2-4%です...

これらの調査の実施に専念している情報源が適切な方法でテストを行っていないか、惑星の特定の領域に偏っているため、数値はあまり信頼できません...さらに、ChromeOSを含むものもあれば、ディストリビューションのみを含むものもあります。その割り当てでのGNU / Linux。 例えば、 NetMarketShare Linuxを4,83%、MacOSを6,29%に設定した、つまり非常に近い調査を発表しました。 その調査では、ChromeOSも含まれていると思います。 ただし、Windowsに与える88,88%とはほとんど比較できませんが、FreeBSD(0,01%)や、FreeBSDをすべて足し合わせたものと同等ではない他のオペレーティングシステムよりもはるかに優れています。

一方、これらの臆病な数字は、次のようなセクターでは発生しません 素晴らしいマシン、組み込み、モバイルデバイスなど。 たとえば、現在私たちが懸念しているスーパーコンピューターの分野では、その支配はほとんど侮辱的で絶対的なものです。 世界で最も強力なスーパーコンピューターのリストを見ると、2018年100月の統計によると、最も強力な500台のXNUMX%がLinuxを使用しています。

1998年に戻ると、その中にLinuxスーパーコンピューターは1台しかありませんでした。 500より強力。 1999年には17に、翌年にはさらに28年に2000に上昇し、そこから指数関数的に成長し、198年には2003、376年には2006、2007年には427に達し、そこから徐々に成長し、現在の490のうち500に達するまで振動している500のうち約500。

したがって、これらのサーバー、メインフレーム、または完全なセキュリティを備えたスーパーコンピューターでは、 RedHatとSUSE、RHELまたはSLESがインストールされているか、Debian、CentOS、KylinLinuxなどの他の異なるディストリビューション。 Linuxがない場合は、Solaris、AIX、UX、またはBSDなどの他のUNIXがありますが、それらがないことで目立つのはMacOSとWindowsです。 そして、前のセクションでコメントしたように、通常はデスクトップ環境がないので、これらのコンピューターのすべての能力を設計された目的に割り当て、さらにその一部を無駄にしないようにしたいからです。それらを扱う人にはほとんど関心がありません。 もうXNUMXつの異なる点は、ユーザーまたは科学者が作業するクライアントコンピューターです。これには、より直感的でグラフィカルな方法で情報を分析するためのグラフィカル環境があります。

自家製のスーパーコンピューターを作成するにはどうすればよいですか?

RaspberryPiボードを搭載したスーパーコンピューター

はい、自家製のスーパーコンピューターを作成できます。 実際、ネットワークには、多くのボードで構成されたスーパーコンピューターなどのプロジェクトがあります。 ラズベリーパイが参加しました。 明らかに、これらのマシンの機能は別の世界のものではありませんが、それは可能です これらのボードの多くの容量を追加します まるで単一のマシンであるかのように動作させます。 このタイプのDIYプロジェクトは、実際の使用よりも、スーパーコンピューターの作成方法を教えるために行われますが、誰でも自宅で実行できるように、より安価な方法で小規模に作成できます。

自宅で作成できる、または大型のマシンよりも安価な別のタイプのクラスターまたはスーパーコンピューターは、 ベオウルフ/呪われし勇者。 BSDのようなUnixライクで実装できます。 Linux またはSolarisを使用し、オープンソースプロジェクトを使用してこのマシンの並列結合を利用します。 基本的には、イーサネットカードとスイッチで接続された複数のPCを結合して、それらを結合し、単一のシステムとして機能させることで実現します。

いくつかで 古いPC または、UbuntuのようなLinuxディストリビューションを使用していない場合は、Beowulfをビルドできます。 プロジェクトを確認することをお勧めします MOSIX / OpenMOSIX o ペリカンHPC。 それらを使用すると、この実装を実行できるようになります。 ただし、気になる場合は、将来的にLxAで、実用的な方法で段階的に実装する方法についてのチュートリアルを作成するように努めます。

コンピューターにオペレーティングシステムをインストールする

テキストモードのYAST2

このセクションは、インストールが 他のコンピュータと実質的に同じ。 使用されるLVMまたはRAID構成などの特定の側面を構成する必要があることだけを覚えておく必要があります。 しかし、一般的に、それは日常のインストールからそれほど遠くありません。 唯一の衝撃的なことは、単一のプロセッサといくつかのRAMモジュールとXNUMXつまたはXNUMXつのハードドライブの代わりに、管理者の観点からは違いはありませんが、数百または数千のハードドライブがあることです。 システムはマシン全体を認識しますが、私たちが持っているリソースは並外れたものです。

違いに気付くのは BIOS / UEFIの欠如これらのシステムは、SPARC、POWERなどに基づく特定のプラットフォーム用に異なるEFIシステムまたは他の非常に特殊なファームウェア実装を使用することが多いためです。 たとえば、IntelEFIはIntelItaniumでサポートされています。実際、定期的に私たちを読むと、 linuxboot。 しかし、これはそれほど問題にはなりません。このインターフェイスに精通しているだけで、他には何もありません。さらに、このタイプの機器の電源をオフ/オンまたは再起動する回数は実質的にゼロです。

お父さんお母さん! 自宅にスーパーコンピューターを置くことはできますか?

CLOUDからの雲の背景

Beowulf形式またはRaspberryPiボードのクラスターまたは他のタイプのSBCを使用して組み立てることができるプロトタイプに関係なく、私はあなたに朗報です。 インフラストラクチャを購入したり取り付けたりすることなく、自宅からスーパーコンピュータのパワーを使用できます。 月額料金を支払うだけ このサービスを購入する あなたはそれを使いたいどんな目的のためにでも利用できるすべてのその力を頼りにすることができます。 これは、AWS(Amazon Web Services)、Google Cloud Computing、Microsoft Azure、IBMなどのさまざまなクラウドサービスのおかげです。

最も人気のあるクラウドサービスのロゴ

さらに、このタイプのサービスを採用することは、独自の専用サーバーを使用する場合と比較して節約を意味するだけでなく、 その他の利点。 たとえば、わずかに高いレートを採用することで、サービスの可能性や規模をすばやく拡大できます。これは、物理的に持っていれば、新しい機器を購入することを意味します。 また、消費電力や保守要員などの追加費用は、サプライヤーの技術者が負担するため、お手頃な価格で信頼性を保証することができます。

多くのサービスがあります 手頃な価格でVPSを提供するつまり、実サーバーまたはスーパーコンピューターの仮想マシンに実装された仮想サーバーです。 このサーバーは、実際のマシンの機能の一部にアクセスして提供します。 1&1、TMDHosting、HostGator、Dreamhostなどの優れたVPSプラットフォームを見つけることができます。また、それぞれのWebサイトでVPSの特性と価格を確認できます。 特性の中には、RAM、プロセッサ、使用可能なストレージ、帯域幅、または許可されたネットワークトラフィックなどがあります。 さらに、これらのVPSは、必要に応じて、主にLinuxまたはWindowsにすることができます。

一方で、クラウドのサービスなど、他にもやや高度なサービスがあります。 契約IaaS (サービスとしてのインフラストラクチャ)またはサービスとしてのインフラストラクチャ。 つまり、物理的に必要とせずに、スーパーコンピューターまたはサーバーをサービスとして使用できます。 この場合、Microsoft Azure、Google Cloud Platform、IBM SoftLayer、CloudSigma、Rackspace、VMWare vCloud Air、Amazon Web Services、Citrix Workspace Cloud、OracleCloudInfrastructureなどがあります。

フエンテス:

コンピュータとマイクロプロセッサのアーキテクチャ- ビットマンの世界

オペレーティングシステムと管理- C2GL

コメントを残すことを忘れないでください 疑問、貢献、またはあなたが私の謙虚な貢献を見つけたことで...私はそれがあなたがこの世界についてもっと学ぶのを助けたことを願っています。


コメントを残す

あなたのメールアドレスが公開されることはありません。 必須フィールドには付いています *

*

*

  1. データの責任者:AB Internet Networks 2008 SL
  2. データの目的:SPAMの制御、コメント管理。
  3. 正当化:あなたの同意
  4. データの伝達:法的義務がある場合を除き、データが第三者に伝達されることはありません。
  5. データストレージ:Occentus Networks(EU)がホストするデータベース
  6. 権利:いつでも情報を制限、回復、削除できます。

  1.   アボカドエール

    自宅に2台または3台のコンピューターがある場合、それらの電源を簡単に統合するにはどうすればよいですか? チュートリアルをアップロードする

  2.   マリアセシリア

    優れた記事。 入力ありがとうございます!!!

  3.   パコチョーテ

    壮大な記事、非常に説明的で理解しやすい。 入力ありがとうございます。 疑問がXNUMXつだけあります。それは、オペレーティングシステムのインストール方法です。ハードウェアは、通常使用するパッケージで適切に機能する標準からかけ離れているため、カーネルをハードウェア用にコンパイルする必要があることを理解しています。