マイナビニュース | テクノロジー | スパコン/HPC

関連キーワード

イチオシ記事

Hisa Andoのディープラーニング挑戦記 第3回 ニューラルネットワークの学習の基礎を学ぶ

学習を行う際には、収集したデータを訓練データと検証データに分ける。そして、学習時には訓練データだけを使って重みを調整し、それが終わると、検証データを使って、それまでに見たことが無い画像でも認識がうまく行くかという学習の成果を確認するというやり方がとられる。

[09:00 2/24]

新着記事

一覧

最先端技術にチャレンジするスパコン - 東工大のTSUBAME3.0

東京工業大学(東工大)の3代目スーパーコンピュータ(スパコン)である「TSUBAME3.0」は最先端の技術チャレンジに挑むスパコンであり、継続運用するTSUBAME2.5と合わせて15-20PFlopsの演算性能、4-5PB/sのメモリバンド幅、ペタビット級光ネットワークを持つ先端的スパコンである。

[10:30 2/21]

産総研、東工大に実社会ビッグデータ活用に向けた研究拠点「RWBC-OIL」設立

産業技術総合研究所(以下、産総研)は、東京工業大学(以下、東工大)と共同で、同学大岡山キャンパス内に「産総研・東工大 実社会ビッグデータ活用オープンイノベーションラボラトリ」(AIST- Tokyo Tech Real World Big-Data Computation Open Innovation Laboratory、以下、RWBC-OIL)を設立した。

[16:39 2/20]

新着記事

一覧

東工大、次期スパコン「TSUBAME3.0」を発表 - 2017年夏の完成を予定

2017年2月17日に東京工業大学(東工大)は、次期スーパーコンピュータ(スパコン)「TSUBAME3.0」を発表した。発表前日に競争入札の開札があり、SGIの受注が決定したことを受けての発表である。

[14:11 2/20]

コンピュータアーキテクチャの話 第372回 ディープラーニングの入力の重みの値を決める「学習」

精度の高い推論を行うためには、各ニューロンの入力の重みを適切な値に設定する必要がある。現在はより複雑なネットが開発されており、AlexNetは規模が小さいのであるが、それでも、65万個のニューロンを使っており、約6000万個の入力の重みの値を決めなければならない。これを決めるのが「学習(Learning)」である。

[09:00 2/17]

Hisa Andoのディープラーニング挑戦記 第2回 ニューラルネットワークの基礎を学ぶ

3層の多層パーセプトロンを考えた場合、入力層と出力層は3つのノードを持ち、隠れ層は2つのノードを持つ。そして、層の間の接続はそれぞれの重みをもち、信号の伝達は矢印で示される方向だけに行われることとなる。

[09:00 2/17]

Hisa Andoのディープラーニング挑戦記 第1回 NVIDIAのDeep Learning Instituteを体験してみた

2017年1月17日に開催されたNVIDIAの「Deep Learning Institute 2017」では、ディープラーニング(深層学習)の基礎講座と実際にNVIDIAのディープラーニング開発ツールである「DIGITS」を使うハンズオントレーニングセッションが行われた。

[09:00 2/10]

実用的な大規模量子コンピュータの設計図を公開-サセックス大、Google等

英サセックス大学をはじめとする国際研究チームは、実用的な大規模量子コンピュータの設計図を公開した。研究には、米Google、デンマークのオーフス大学、ドイツのジーゲン大学、日本からは理化学研究所も参加した。

[13:02 2/8]

コンピュータアーキテクチャの話 第371回 AlexNetの構造を読み解く

「AlexNet」は2012年のILSVRCで優勝したことで一躍注目を集めるようになったが、それ以前は画像認識の専門家が設計した画像処理プロセサなどが使われてきた。ディープラーニングを使うAlexNetが抜群の成績で優勝し、画像認識の研究者に大きな衝撃を与えたため、それ以降のILSVRCでは大部分がディープラーニングを使うように切り替わった。

[10:00 2/3]

PEZYがエクサスケールスパコンの開発計画を公開

早大で開催されたSISAワークショップにおいて、PEZYの齊藤元章社長が「Plan to develop ExaScale computing system」と題する講演を行い、従来のPEZY-SC系のプロセサと浸漬液冷に加えてDRAMもカスタム開発することなどを説明した。

[12:15 2/1]

パナソニックと産総研、先進型AI技術研究開発のためのラボを設立

パナソニックと産業技術総合研究所(産総研)は1月31日、産総研の情報・人間工学領域が持つ先進の人工知能・ロボット技術と、パナソニックの家電・住宅・車・産業などの事業領域で今後想定される社会課題・顧客課題とを掛け合わせ、より良いくらしと社会の実現に貢献する先進型AI技術の研究開発を行う「パナソニック-産総研 先進型AI連携研究ラボ」を2017年2月1日付けで設立すると発表した。

[17:56 1/31]

ピーク演算性能1ExaFlopsがターゲット - 中国の次期スパコン開発プロジェクト

早稲田大学(早大)で開催されたSISAワークショップにおいて、中国の北京航空航天大学と中山大学の教授を兼任するDepei Qian氏が、「China's New Project on HPC development」と題して中国の次世代スパコン開発プロジェクトについて講演を行った。

[10:00 1/31]

米国のExascaleプロジェクトの基本計画が明らかに

早稲田大学(早大)で開催されたSISAワークショップにおいて、米国のExascaleプロジェクトのディレクタであるアルゴンヌ国立研究所のPaul Messina氏が「Extreme Scale and Beyond」と題する基調講演を行った。

[11:00 1/30]

NVIDIAの次世代GPU「Volta」はGTC 2017で発表

2017年1月17日にNVIDIAの「Deep Learning Institute 2017」が開催された。その基調講演に登壇したのは、NVIDIAの研究部門を率いるシニアVPのBill Dally氏である。この機会に同氏に、同社の次世代GPU「Volta」が製品として出てくるタイミングを聞いてみた。

[10:00 1/19]

阪大やimec、脳波を基に自動で作曲を行う人工知能を開発

大阪大学(阪大)は1月16日、楽曲に対する脳の反応に基づいて自動作曲を行う人工知能の開発に成功したと発表した。

[19:21 1/16]

新型チップのテープアウトも間近-PEZYグループは今、何を進めているのか?

2016年6月には、理化学研究所(理研)の菖蒲スパコンでGreen500で1位、TOP500でも94位とTop100入りを果たして注目を集めたPEZYグループであるが、2016年11月のTOP500では新システムの登録は無く、Green500でもNVIDIAのP100 GPUを用いるシステムに抜かれて3位に後退した。沈黙を守るPEZYグループは、今、何を進めているのであろうか?

[11:00 1/11]

コンピュータアーキテクチャの話 第370回 ディープラーニングを支えるGPU

VR、ARのようなハイエンド側への進化はあるものの、グラフィックスだけでは性能向上の著しいCPU内蔵、あるいはスマホのSoC内蔵のグラフィックプロセサで間に合ってしまう用途が増えてきている。このため、 NVIDIAはディープラーニングと、ディープラーニングを使う自動運転へのGPUの対応を熱心に進めて新たな市場を切り開こうとしているように見える。

[10:00 1/6]

NVIDIA、最新のディープラーニングの動向を学べるイベントを1月17日に開催

NVIDIAは、GPUを用いたディープラーニングの最新状況を学ぶことができるイベント「NVIDIA Deep Learning Institute 2017」を1月17日に開催する。

[16:17 1/5]

ソシオネクスト、独自スイッチSoCを搭載したARMサーバを開発

ソシオネクストは12月28日、ARM Cortex-A53を24コア搭載したマルチコアプロセッサ「SC2A11」ならびに、独自開発のCPU間高速通信技術「Socionext DDT」を採用したスイッチSoC「SC2A20」を搭載した大規模・高効率分散処理サーバを開発したと発表した。

[14:16 12/28]

コンピュータアーキテクチャの話 第369回 AMDのGPUが用いているデバイスメモリの種類

GCNアーキテクチャのGPUのメモリ階層を見ると、CUには16KBの1次データキャッシュがつながり、その次に64~128KBの2次キャッシュ群がつながっているが、その間にクロスバが設けられており、どのCUとどの2次キャッシュスライスも通信できるようになっている。

[10:00 12/23]

TOP500で国内1位の性能を獲得したスパコン「Oakforest-PACS」を読み解く 第3回 Omni-Pathネットワークを採用した世界最大のスパコン

Oakforest-PACSは富士通が納入したシステムで、富士通の「Primergy CX1640 M1」サーバを8208台使っている。

[07:00 12/22]

SC16 - メモリテクノロジはどうなっていくのか?

Exascaleとその後のメモリはどうなっていくのかに関して、SC16において「Future of Memory Technology for Exascale and Beyond IV」と題するワークショップが行われた。このワークショップは、以前から行われており、今回は4回目であるのでIVが付いている。

[07:00 12/21]

SC16 - Exascale以降のデバイスの研究状況

CMOSデバイスの微細化は限界に近づきつつあるが、デバイスの研究者は、より高性能のデバイスを作ることを諦めたわけではない。SC16において、コロンビア大学のナノ・イニシアティブのディレクタであるThomas N.Theis教授が、Beyond Exacaleの時代の新デバイスの研究開発状況について講演を行った。

[07:00 12/20]

東北大、スピントロニクス素子を使った人工知能の基本動作の実証に成功

東北大学は12月19日、磁石材料から構成されるミクロなスピントロニクス素子を使った人工知能の基本動作の実証に成功したと発表した。

[17:28 12/19]

SC16 - スパコンはポストムーアの時代をどう乗り切るのか?

SC16において、「Post Moore's Era Supercomputing in 20 Years」と題するパネルディスカッションが行われた。パネリストは、東工大の松岡聡氏をはじめとする世界のトップ研究者たち6名で、モデレータはオークリッジ国立研究所のJeffrey S Vetter氏とローレンスバークレイ国立研究所のGeorge Michelogiannakis氏である。

[08:00 12/19]

ARM、HPCシステム向けソフトウェアツールのAllinea社を買収

英ARM社はこのほど、ハイパフォーマンス コンピューティング(HPC)システム向けソフトウェアツールのプロパイダであるAllinea社を買収したと発表した。

[08:00 12/19]

SC16 - 京コンピュータが1位を堅持したGraph500

TOP500は、スパコンの浮動小数点演算性能を測ってランキングを行っている。浮動小数点演算の性能は重要であるが、スパコンに求められる能力はそれだけではない。大規模なグラフの処理も、色々な分野で重要になってきている。ということで、グラフを処理する性能を競うGraph500が始まった。

[14:00 12/16]

SC16 - 展示会場で見た各社の最新技術

SC16は登録参加者1万1100名、出展ブースの数は349と参加者、展示ともに過去最高であったが、目立った展示は少ない感じの展示であった。このところ展示フロアに持ち込むハードウェアは減少傾向にあるが、今年は、さらにそれが進んだ感じの展示であった。

[10:00 12/15]

TOP500で国内1位の性能を獲得したスパコン「Oakforest-PACS」を読み解く 第2回 Xeon Phiの活用でメニーコアスパコンを実現

Oakforest-PACSは、「Knights Landing(KNL)」という名前で開発されてきたIntelの「Xeon Phi 7250」メニーコアプロセサを計算エンジンとして使っている。

[07:00 12/15]

SC16 - Green500の1、2位はNVIDIAのP100 GPUシステム

昨年までは、TOP500はHPLで最高性能を出せる測定を行い、Green500はHPL性能は下がっても、性能/電力が改善する低めの電源電圧に変更して測定するということが行われていた。これが、今年の6月から、TOP500とGreen500のルールが変わり、両方とも同じ条件で測定することになった。

[11:00 12/14]

SC16 - IBMのニューロンコンピューティングシステム「TrueNorth」

SC16において、IBM ResearchのJun Sawada氏が、神経系を模した情報処理を行う「TrueNorth」について発表を行った。

[14:50 12/12]

バックナンバー

このカテゴリーについて (テクノロジー>スパコン/HPC)

 トップへ
スーパーコンピュータ/HPC分野で活用される話題をお届けします。

人気記事

一覧

イチオシ記事

新着記事