タグ

2020年2月11日のブックマーク (9件)

  • FUJIFILMコンペで入賞してとても良いカメラをもらった話 - hrhr's blog

    FUJIFILM AI Academy Brain(s)さんにより開催されていたデータサイエンスチャレンジコンテストに参加していました.最終的になんとか3位で入賞することができ,つい先日,入賞者が集まる表彰式に参加しその景品として非常に良いカメラをいただきました. 富士フイルムの画像コンペで3位に入賞してとても良いカメラを頂きました、前回のリベンジを果たせたので大満足です なんとLTもやらせてもらい、他の入賞者の方とも解法を話し合えたので勉強になりました…! #brainscon pic.twitter.com/m3lrwJ1HTI— hrhr (@n_08_hrhr) 2020年2月3日 今回は自分の解法や表彰式で感じたことなどを簡単に述べようと思います. ちなみに普段あまりこういったコンペには参加していないため,「ここおかしくない?」という点がいくつかあると思いますので,是非ご指摘して

    FUJIFILMコンペで入賞してとても良いカメラをもらった話 - hrhr's blog
  • 富士フィルムコンペの解法まとめ - Sh1r0 diary

    はじめに コンペの概要 評価指標 データ 自分の解法 前処理 Augmentations モデル 後処理 他に試したこと 他の方の解法 おわりに はじめに 今回,富士フィルムさん主催のデータサイエンスチャレンジコンテスト*1に参加しました.結果としては特別賞をいただけました. ここでは自分の解法について簡単に紹介しようと思います. FujifilmコンペでNEVER STOP賞頂きました 同じ問題に取り組んだ方とオフラインでお話しできるのはとても楽しい! また、自分のベースラインを使ってくれてる方もいて嬉しかったです。 これからもNEVER STOPで学び続けようと思います! あと、すごい良いカメラもらえます📷#brainscon pic.twitter.com/UKS4UroQXF— Sh1r0 (@Shir0_it) 2020年2月3日 コンペの概要 アナログ写真の画像が与えられ,そ

    富士フィルムコンペの解法まとめ - Sh1r0 diary
  • 新たなdata augmentation手法mixupを試してみた - Qiita

    ここで$\lambda \in [0, 1]$は、ベータ分布$Be(\alpha, \alpha)$からのサンプリングにより取得し、$\alpha$はハイパーパラメータとなります。特徴的なのは、データ$X_1, X_2$だけではなく、ラベル$y_1, y_2$も混合してしまう点です。 この定式化の解釈の参考記事: http://www.inference.vc/mixup-data-dependent-data-augmentation/ 実装 ジェネレータとして実装します。 https://github.com/yu4u/mixup-generator import numpy as np class MixupGenerator(): def __init__(self, X_train, y_train, batch_size=32, alpha=0.2, shuffle=True,

    新たなdata augmentation手法mixupを試してみた - Qiita
  • 第3回富士フィルムコンペ参戦記 - いのいち勉強日記

    第2回に続き第3回も富士フィルムコンペ、brainsconに参加して入賞することができました! 前回は特別賞入賞でチェキでしたが、今回は5位で賞品もとても良いカメラに。 FUJIFILMのコンペは5位でした🙌🎉良いカメラもらいました💪📸今回も面白い課題で色々試せてとても勉強になりました!懇親会でもたくさんの方とお話しできたので楽しかったです😆運営の方々にはほんと感謝です🙇🏻‍♂️また次回もあるそうなので楽しみです!(入賞者は出れないかもですが…🙄) #brainscon pic.twitter.com/LRBgTgwUkn— いのいち (@inoichan) February 3, 2020 入賞イベントで上位解法を聞くことができたし、懇親会でいろんな方とお話しできたのでとても楽しい大会でした。 この大会では色々実験したので、上位の方の解法と一緒に簡単に紹介したいと思います

    第3回富士フィルムコンペ参戦記 - いのいち勉強日記
  • Anomaly Detection by One Class Latent Regularized Networks

  • Softmax関数をベースにした Deep Metric Learning が上手くいく理由 - Qiita

    はじめに Deep Learningを使った距離学習(Metric Learning)では、Contrastive LossやTriplet Lossなどを用いて、画像間の類似性(や非類似性)を直接学習していく方法が広く利用されていますが、学習データの組み合わせや選び方が難しく、学習自体が難航するケースが多い事も知られています。それだけに、これまで様々な改良と工夫が提案されています。 しかし、最近はこのような学習データ選びに難航することなく、一般的なクラス分類タスクの感覚で、Softmax関数をベースに学習できるMetric Learningが注目を浴びています。ArcFaceなどはその代表的手法でこちらで詳しく説明されています。 Softmax関数をベースにしたMetric Learningがうまくいく理由、またさらなる改良の余地はあるのか?これらに関して少し紹介しようと思います。 Ce

    Softmax関数をベースにした Deep Metric Learning が上手くいく理由 - Qiita
  • Variational Autoencoder徹底解説 - Qiita

    今回はディープラーニングのモデルの一つ、Variational Autoencoder(VAE)をご紹介する記事です。ディープラーニングフレームワークとしてはChainerを使って試しています。 VAEを使うとこんな感じの画像が作れるようになります。VAEはディープラーニングによる生成モデルの1つで、訓練データを元にその特徴を捉えて訓練データセットに似たデータを生成することができます。下記はVAEによって生成されたデータをアニメーションにしたものです。詳しくは文をご覧ください。 記事で紹介している内容のPythonコードはコチラにあります。 1. Variational Autoencoderとは? まず、VAEとはどんなものであるかを説明したいと思いますが、その前に通常のオートエンコーダーについて触れたいと思います。 1-1. 通常のオートエンコーダー オートエンコーダーとは、 教師

    Variational Autoencoder徹底解説 - Qiita
  • 異常検知と変化検知のまとめ 数式なし - Qiita

    この記事は、「Machine Learning Advent Calendar 2015」の17日目の記事になります。 「異常検知と変化検知」のは良書だったので買うのに迷っている人のためにまとめてみました。 間違いがあれば、ご指摘頂けると幸いです。 数式を見て厳密に理解したい方は書籍購入をおススメします。 またコードに直すときはアルゴリズムが必要です。 書籍ではアルゴリズムも記述してくれいてるのでおススメできます。 記事ではアルゴリズムには言及しません。 この記事で得られるもの 1:異常検知における手法の種類 2:異常検知における手法をどのシーンで使用するか 3:異常検知における機械学習をどのように応用するか 以上です。 記事の見方 利用シーンと簡単な手法を記述したので、利用シーン 異常検知の基的な所だけ抑えたい 異常検知と変化検知の基的な考え方 ホテリング法による異常検知 単

    異常検知と変化検知のまとめ 数式なし - Qiita
  • Metric Learning: L2 softmax Lossとsoftmax Lossをkerasで実装し、mnistを使って比較してみた - メモ帳

    metric learningで有用なL2 Softmax Lossについて調べた。 mnist datasetをNeural Networkで特徴空間に写し、Siamese network (距離関数で手書き文字の類似度を判定させるモデル) を構築した。 L2 Softmax Lossを用いたNeural Networkと、Softmax Lossを用いたものの性能を比較した。なお、通常の分類タスクでよく用いられるSoftmax Lossもmetric learningで使われるようである。 metric learning neural networkを用いて入力データを特徴空間に写し、その空間上の幾何的距離で入力データの類似度を表す手法です。 顔認証などで使われています。 L2 Softmax Loss 特徴 実装が簡単。よく用いられるsoftmax lossを少し修正するだけでよい。

    Metric Learning: L2 softmax Lossとsoftmax Lossをkerasで実装し、mnistを使って比較してみた - メモ帳