タグ

2018年11月8日のブックマーク (11件)

  • 機械学習のハイパーパラメータ探索 : ベイズ最適化の活用 | TECHSCORE BLOG | TECHSCORE BLOG

    こんにちは、岡崎です。 この記事は TECHSCORE Advent Calendar 2016 の 20 日目の記事です。 先日、IBISML2016(第19回情報論的学習理論ワークショップ) のチュートリアルに参加しました。 その中で「ベイズ最適化による機械学習のハイパーパラメータチューニング」という内容が面白かったので紹介します*1。 ハイパーパラメータ・チューニング 機械学習モデルの学習においては、良いモデルを作るためにハイパーパラメータ(外部から与えるモデルのパラメータ)のチューニングが必須です。 目的の精度や汎化性能をもとめて、モデルの学習を繰り返し最適なハイパーパラメータを探索するのですが、選択するアルゴリズムやデータ量、計算環境によっては一回の試行が数時間に及ぶこともあり、効率よく探索することが大事になります*2。 従来よりハイパーパラメータのチューニングでは「グリッドサー

    serihiro
    serihiro 2018/11/08
  • A Brief Survey on Sequence Classification(系列データの分類)の要約 - xiangze's sparse blog

    最近時系列データの解析を専門とする人たちのお話をきいたり、ブログを読んだりする機会が多くなっています。工学の枠を超えてビジネスでの応用が盛んになっているようなのですが、今まで制御理論などで得られた理論、知見とは大きな隔たりがあります。 そこで系列データの分類(sequence classiffcation)に関して簡潔にまとめられたドキュメントであるA Brief Survey on Sequence Classification (pdf) を読みました。表題の通り実質6ページで構成された短いドキュメントですが、自分の理解の為にその内容を簡単ではありますが以下にまとめます。 1. INTRODUCTION まず系列データ(sequence data)を以下のように分類しています。 simple symbolic sequence アルファベットなどの記号を単純に並べたもの。DNA  seq

  • Pythonで時系列データをクラスタリングする方法 | NHN テコラス Tech Blog | AWS、機械学習、IoTなどの技術ブログ

    こんにちは。データサイエンスチームのHan-Cheolです。 この記事は、DataScience Advent Calendarの12日目の記事です。 1. はじめに 実世界のデータの多くは時間と共に変化する情報、つまり時系列データです。私たちの周辺に目を向けてみると、ウェブサイトに訪れるユーザーの行動データや消費電力データなど、身近なところでもすぐ見つけることが可能です。 今回は、「クラスタリング」手法を利用して「時系列データ」から繰り返して出現するパターンを見つけ出す方法を調べてみます。 利用するデータ ここ数年、再生可能エネルギーや電力自由化のような話がよく聞こえてきます。このトレンドは日の話だけではなく、機械学習データ分析のコンペで有名なKaggleでも電力に関する内容がよく見当たります。 ここではこのトレンドに乗ってUC Irvine Machine Learning Rep

    Pythonで時系列データをクラスタリングする方法 | NHN テコラス Tech Blog | AWS、機械学習、IoTなどの技術ブログ
  • 1. Preface — CUDA C++ Best Practices Guide 12.3 documentation

    CUDA C++ Best Practices Guide The programming guide to using the CUDA Toolkit to obtain the best performance from NVIDIA GPUs. 1. Preface 1.1. What Is This Document? This Best Practices Guide is a manual to help developers obtain the best performance from NVIDIA® CUDA® GPUs. It presents established parallelization and optimization techniques and explains coding metaphors and idioms that can grea

  • 講習会 | 東京大学情報基盤センター スーパーコンピューティング部門

    講習会 Wisteria/BDEC-01 お試しアカウント付き並列プログラミング講習会 他団体と共催で開催する講習会 並列プログラミング講習会 東京大学学内向け講習会 他大学が開催する講習会(遠隔配信による講習会) お試しアカウント付き並列プログラミング講習会 スーパーコンピューティング部門では、全国のスーパーコンピュータ利用者、および利用を検討している新規ユーザ(企業の技術者・研究者を含む)を対象とした、スーパーコンピュータを用いた実習付きの並列プログラミング講習会(お試しアカウント付き講習会)を定期的に実施しています。 講習会は2021 年 8 月に稼働した Wisteria/BDEC-01 システム にて実施される予定です。 並列処理に関する基礎知識を必要としない初級編に始まり、数値計算の応用レベルの並列化まで、受講者の習得レベルに応じた講習会に参加が可能です。並列化には MPI

  • Introduction to Programming on Multicore/Manycore Architectures for Scientific Computing using OpenMP

    OpenMPによるマルチコア・�メニィコア並列プログラミング入門(東京大学情報基盤センター) 日時:2021年4月20日(火) 資料を更新しました。 講習会はZoomによるオンラインで実施します。 〔スケジュール(時間割)〕 09:00-11:00 有限体積法 11:00-12:30 OpenMP入門 13:30-16:00 オーダリング 16:00-17:30 OpenMP並列化 17:30-18:00 質疑 講習会HP 準備(ソフトウェアを各自事前にインストールしておいてください,スパコンへのログインもできるだけ事前に済ませておいてください)[FILE] Windows Cygwin 「OpenSSH」を忘れないこと 「C(C利用者)」または「gfortran(Fortran利用者)」を必ずインストールすること 「make」も必ずインストールすること(「Devel」に入っています)

    serihiro
    serihiro 2018/11/08
  • 【CUDA】SM,Warp,Occupancyなどの概念 - 緑茶思考ブログ

    CUDAを勉強しようとして,まずつまずくのが, ThreadやBlock, Gridなどのソフトウェア上の概念と, Streaming Multiprocessor(SM),CUDA Core,Warp, Occupancyなどのハードウェアの概念がごっちゃになる点だ. 今回はじめて理解できた(気がする)ので,忘れないうちに書き残しておく. ソフト的(と思われる)概念 Thread デバイス上のプログラムが動くときの最小単位 非同期に動く Block Threadをまとめたもの 3次元表現 Grid Blockをまとめたもの ハード的(と思われる)概念 CUDA Core 実際にThreadが動く部分 CUDA Core以上にThreadを生成する利点は,GPUGPU側のDRAM間のメモリアクセスの遅延の隠蔽にある SM 上のBlockはハードではSMにあたる 1つのSMで実行されるBl

    【CUDA】SM,Warp,Occupancyなどの概念 - 緑茶思考ブログ
  • http://nkl.cc.u-tokyo.ac.jp/seminars/multicore/oacc-05.pdf

  • OpenACC ディレクティブによるプログラミング by PGI Compilers

    コンピューティング環境が、従来の CPU だけで処理される時代から変化しようとしています。電力効率の問題を内在しメモリ帯域幅の制約から「CPU 自体の性能向上」が期待できない中で、GPU や DSP と言った、今まで特殊用途のプロセッサを利用し、汎用的な処理を行うソフトウェア環境が整備されつつあります。ここでは、こうした異種プロセッサを活用する「ハイブリッド・コンピューティング」のソフトウェア環境の一つである、OpenACC (Open Accelerator) の使用法に関して纏めます。OpenACCは、2008 年から PGI が取り組んだ PGI Accelerator Programming Model の考え方を踏襲し、2011 年に新しく標準規格化されたものです。OpenMP のようなディレクティブ・ベース(ソース上に指示行を挿入する形態)のプログラミング手法を採用し、GPU

    OpenACC ディレクティブによるプログラミング by PGI Compilers
  • GPGPU(GPUプログラミング概要)

    ホスト側とGPUボードは PCI バスを通してデータの交換を行います。 GPU内に転送速度は非常に速いが、メモリ・アクセスの遅延(レイテンシ)の大きな「デバイスメモリ」を有します。現在の実装では、数 GB オーダーの容量を有します。 デバイスメモリとGPUの演算装置(「Streaming Multiprocessor (SM)」と言う。あるいは単に Multiprocessor と言うこともある。)の間に、ソフトウェアで管理できるキャッシュ(Shared Memory)とハードウェアで制御できる L1/L2キャッシュ(Fermi以降)が存在する。 Streaming Multiprocessor (SM) は、演算器の集まり(クラスタ)であり、この演算器の最小単位は、Streaming Processor(SP)、あるいは CUDA coreと称される。一つの SM の中に 8個の SP

  • 【ストV AE】Red Bull Kumite 2018概要・結果・スケジュールまとめ – ファミ通AppVS

    ゲーム・エンタメ総合情報サイト。SwitchPS5・PS4・Xbox Series X・アプリ等の最新ニュース、ゲーム発売日情報、レビュー、ゲーム販売ランキングから、クリエイターのインタビュー記事、他アニメ・声優コンテンツなども充実しています!

    【ストV AE】Red Bull Kumite 2018概要・結果・スケジュールまとめ – ファミ通AppVS
    serihiro
    serihiro 2018/11/08