マイナビニュース | テクノロジー | スパコン/HPC

関連キーワード

イチオシ記事

IntelのKNL(Knights Landing)の性能は? - ISC 2016 第4回 まだまだ続くコア数の増加とFlopsの向上

アルゴンヌ国立研究所のNekboneというアプリケーションでは、KNLでは0.38msで実行できたジョブが、E5-2699 v3デュアルコアの36コア、2.3GHzクロックのシステムでは1.22ms掛かり、KNLは4.6倍の性能である。

[10:00 8/25]

新着記事

一覧

NVIDIA、自動運転車向けSoC「Parker」を正式に発表

NVIDIAは8月22日(米国時間)、Hot Chipsカンファレンスにおいて、自動運転車やデジタル・コクピットなどの自動車用アプリケーションに向けたSoC「Parker」を発表した。

[08:00 8/25]

IntelのKNL(Knights Landing)の性能は? - ISC 2016 第3回 KNLの性能はどうなったのか?

この基調講演で、一番、興味深いのは、それでKNLの性能はどうなったのか? という点である。

[10:00 8/24]

新着記事

一覧

IntelのKNL(Knights Landing)の性能は? - ISC 2016 第2回 Knights Landingの構造を知る

Knights Landing(KNL)は、メインラインのIAプロセサと命令互換を実現し、自分でOSをブートして走らせられる最初のXeon Phiプロセサである。そして、前世代のKNC(Knights Corner)と比較してスカラ性能もベクトル性能も大きく改善している。

[10:00 8/23]

GPUやCPUなどの最新の話題が目白押し - Hot Chips 28が開幕

デジタルデータ処理関係のコマーシャルLSIの発表の場としては最高のステータスを持つ「Hot Chips 28」が開幕した。会期は8月21日(日)から8月23日の3日間であるが、初日の8月21日はチュートリアルで、午前は次世代メモリのチュートリアルでHBMを製造しているSamsungやSK Hynix、HBMを使っているXilinxやAMDからの講義が行われる。

[11:47 8/22]

IntelのKNL(Knights Landing)の性能は? - ISC 2016 第1回 スパコンの性能向上を支えるコア数の増加

ISC 2016の本会議が終わった翌日は、会場を近くのMarriottホテルに移し、20余りのワークショップが開催されるワークショップデイとなる。筆者は、2015年に続いて「IXPUG」のワークショップに参加した。IXPUGはその名の通り、Xeon Phiを使うHPCユーザのユーザ会で、Intelからの発表と、会員からの技術発表が行われた。

[10:00 8/22]

トヨタ、ミシガン大学と人工知能研究で連携 - 4年間で2200万ドルを投資

トヨタ自動車の米国での人工知能技術の研究・開発を行う拠点「Toyota Research Institute(TRI)」は8月10日(米国時間)、人工知能関連の研究でミシガン大学と連携すると発表した。

[06:00 8/14]

コンピュータアーキテクチャの話 第360回 CPUとGPUで処理を分担する場合のメモリのコピー手法

CPUとGPUで処理を分担する場合は、CPUのメインメモリのデータをGPUのデバイスメモリにコピーする、あるいはその逆のデータのコピーが必要になる。

[10:00 8/12]

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第10回 バンクコンフリクトを避けるには?

バンクコンフリクトを避けるにはどうすれば良いか? それは意外と簡単で、各行に余計な要素を1つ付け加えてやれば良い。

[08:00 8/12]

国家をあげて脳研究を推進する米国のBRAIN Initiative - ISC 2016

「Brain Initiative」に沿って進められている米国の脳研究の状況について、ISC 2016において、アルゴンヌ国立研究所のRick Stevens氏が発表を行った。

[09:00 8/10]

NASAが進める量子コンピューティング研究 - ISC 2016

ISC 2016において、NASA Ames Research CenterのRupak Biswas氏が、NASAで行っている量子コンピューティングの研究について発表を行った。

[11:00 8/9]

理研、「京」と最新の気象レーダによるゲリラ豪雨の予測手法を開発

理化学研究所(理研)は8月9日、スーパーコンピュータ「京」と最新鋭気象レーダを生かした「ゲリラ豪雨予測手法」を開発したと発表した。

[10:00 8/9]

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第9回 シェアードメモリ中での転置で、連続アドレスへの書き込みを実現

行列全体を2次元のタイル(例えば32×32のサイズ)に分割して考えて、1つタイルをSMに内蔵されている高速アクセスができるローカルなメモリに格納する。このメモリに格納されたタイルの中の要素を列方向に読み、行方向に書き出すのは高速で実行できる。GPUでは、プログラマがアクセスを制御でき、ローカルで高速にアクセスできるメモリとしてシェアードメモリが設けられている。

[08:00 8/5]

ディープラーニングで写真の内容を理解する - ISC 2016

ISC 2016において、独DFKIのDamian Borth氏が、ディープラーニングを使って、写真から形容詞と名詞のペアのクラス分けを行うという発表を行った。

[08:00 8/3]

人間の脳の理解を目指す欧州の研究プロジェクト - ISC 2016

EUが取り組んでいる「Human Brain Project」は、人間の脳を多角的に研究し、その構造や働きに迫ろうとするプロジェクトであり、この分野では世界の最先端の研究と言ってよい。そのHuman Brain Projectの概要がISC 2016にて語られた。

[09:00 8/2]

コンピュータアーキテクチャの話 第359回 GPUプログラミングを難しくするCPUとGPUのメモリの分散

CPUとGPUのメモリが分離されていることが、GPUプログラミングを難しく、取っき難いものとしている。このため、GPUメーカは両者のメモリが統一された共通のメモリであるように見せようとしている。

[13:00 7/29]

IDCF、高性能GPUコンピューティングをクラウドで提供するサービスを発表

IDCフロンティア(IDCF)は7月28日、ディープラーニングを容易に実現するGPUを搭載した高性能GPUコンピューティングを、クラウドサービスとして提供すると発表した。利用料金は現在のところ未定で、提供開始は2016年10~12月を予定している。

[10:52 7/29]

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第8回 行列の転置では書き込みは飛び飛びアドレスになる

行列の転置の場合、読み込みを連続アドレスとすると、書き込みは飛び飛びのアドレスになってしまいそれぞれのアクセスが異なるキャッシュラインとなってしまうことは避けられないように思われるが、本当にそうであろうか?

[08:00 7/29]

なぜディープラーニングにはHPCが必要なのか - ISC 2016

ISC 2016においてドイツのフラウンフォーファー研究所のJanis Keuper氏が、「Deep Learning goes HPC」と題して発表を行った。ディープラーニングの処理とその並列化を理解する上で分かりやすいと思うので紹介する。

[13:16 7/25]

Green500のリストが正式に発表 - 測定方法の変化を読み解く

スパコンをLINPACK性能順にランキングするのがTOP500であるが、エネルギー効率(性能/電力)でランキングするのがGreen500である。Green500リストであるが、暫定的な上位11システムのリストは6月20日にISC 2016の会場で発表されたが、正式なフルリストはこの時には発表されなかった。そのフルリストが、やっと7月22日に発表された。

[12:19 7/25]

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第7回 スレッドのメモリ読み出し要求の仕組みを知る

NVIDIAのGPUは32スレッドのワープ単位で命令を実行する。例えば、LD.E R2,[R6]という命令はR6に格納されているアドレスのメモリを読み出し、その値をR2に格納するという命令である。R6レジスタに格納されている値であるが、スレッドごとに独立のR6レジスタがあるので、各スレッドのR6レジスタにどのような値が入っているかはケースバイケースである。

[11:00 7/22]

理研など、「京」で火星大気中の"ダストデビル"を大量に再現

理化学研究所(理研)などは7月20日、スーパーコンピュータ「京」を用いた超高解像度シミュレーションにより、火星大気中の「塵旋風(じんせんぷう)」を大量に再現し、その大きさや強さの統計的性質を明らかにしたと発表した。

[11:25 7/21]

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第6回 メモリバンド幅の解析を実行し、さらに並列度を上げる

gpuTranspose2カーネルはメモリバンド幅が制約になっているようであると指摘されているので、メモリバンド幅の解析を実行する。

[11:00 7/15]

コンピュータアーキテクチャの話 第358回 HPCにおけるCPU-GPU間のデータのやり取り

スパコンのように大規模なコンピュータでは、CPUに何台かのGPUを接続したものを計算ノードと呼び、これらをInfiniBandなどの高速のネットワークで接続するという構成をとるのが一般的である。

[10:00 7/15]

日本のスパコン「京」、スパコン性能ランキング「Graph500」で3期連続で1位

理研が保有するスパコン「京」がビッグデータ処理の世界的なランキング「Graph500」において、1位を獲得した。これにより京は3期連続で世界1位を獲得したこととなる。

[20:11 7/13]

HPCが人工知能の進化を加速させる - Baiduが語ったHPCとAIの関係性 第4回 今後、AI活用はどこに向かうのか

今後のAIであるが、短期的にはAI担当のVPを雇い、AI機能を全社的に利用できるようにするとかして、AIの利用を現在のビジネスにちりばめる程度であるが、長期的には、より深く、AIをビジネスに組み込んでいくことが必要になる。また、AIを使った新しいビジネス戦略が必要になる。

[08:30 7/8]

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第5回 グリッドを大きくする方法

NVVPはグリッドが小さすぎると言っている。これは並列度が低いという指摘である。並列度が低いと、飛行中のC5が少なく、バンド幅を有効に利用できない。どのようにすればグリッドを大きくできるのであろうか?

[08:00 7/8]

ISC 2016 - Green500の上位を独占したMIMDメニーコア 第5回 太湖之光システムの並列プログラム環境はOpenACC

太湖之光システムは、メニーコアプロセサを使い、1000万を超えるコアを並列に動かすためのプログラミング環境が必要となる。太湖之光システムでは、基本的にOpenACCを並列プログラム環境として使っている。

[08:00 7/8]

100PFlops時代到来 スターリング教授が語った2016年のHPC - ISC 2016

ISC 2016では、インディアナ大学のThomas Sterling(トーマス・スターリング)教授が、最終日の閉会の辞の前に締めの基調講演を行うのが恒例となっている。2016年のテーマはTaihuLightの出現による100PFlops時代の到来である。

[11:00 7/7]

HPCが人工知能の進化を加速させる - Baiduが語ったHPCとAIの関係性 第3回 ディープラーニングに第2のトレンドが到来

Baidu Speechでの具体的な性能改善としては、入力データを読み込むのに必要な時間は54nsで、これは全体の0.2%程度の時間で済む。しかし、ニューロンの各入力の重みは数が多いので、これを読み込むには全体の8%の20μsを必要とする。そして、入力データと重みを掛けて和を取るという計算部分が全体の15%の3.5μs掛かる。

[08:30 7/7]

ISC 2016 - Green500の上位を独占したMIMDメニーコア 第4回 1000万コアを超える巨大システム「太湖之光」

太湖之光システムは、2個のSW 26010を搭載するカード、4枚のカードを搭載するボード、32枚のボードを収容するキャビネット、4台のキャビネットを収容する筐体という階層になっている。この筐体を40台並べて、システムを構成している。

[08:00 7/7]

バックナンバー

このカテゴリーについて (テクノロジー>スパコン/HPC)

 トップへ
スーパーコンピュータ/HPC分野で活用される話題をお届けします。

人気記事

一覧

イチオシ記事

新着記事

大学1・2年生が就職したい企業、1位は?
[10:55 8/29] シゴト
ブリトニー・スピアーズ、波に襲われ「溺死しそうだった」
[10:51 8/29] エンタメ
声優・麻倉ももがHoneyWorksプロデュースでソロデビュー決定
[10:37 8/29] ホビー
Mac Fan 10月号発売! 特集は「IBM x Appleのビジネス大変革」
[10:37 8/29] パソコン
全部200kcal以下! 残業後でもパパッと作れる「太らない残業ごはん」発売
[10:37 8/29] ヘルスケア