並び順

ブックマーク数

期間指定

  • から
  • まで

321 - 360 件 / 10336件

新着順 人気順

Datasetの検索結果321 - 360 件 / 10336件

  • ビタミンD欠乏症が増加中 子どもの日焼け対策に注意を:朝日新聞デジタル

    子どもの間でビタミンD欠乏症が増えていることをご存じでしょうか。ビタミンD欠乏症は、骨の発育不良を起こし、O脚や背中が曲がる「くる病」の引き金にもなります。背景には、行き過ぎた紫外線対策があるとの指摘があり、日差しが強いこの時期、子育て中の方々には気になる話ではないでしょうか。日焼け対策にも関わるビタミンD欠乏症について取材しました。 まったく戸外にでなかった1歳児 大阪府内に住む女性(40)は、昨年1月、ちょうど1歳になる娘がビタミンD欠乏症と診断されて驚いた。10カ月健診で精密な検査を求められ、大阪大病院で診察を受けた結果、わかった。「少しO脚気味だったので、気にはしていたのですが、まさかそんな状態だとは思わなかった」という。 ビタミンDは皮膚に紫外線があたって、そこで別の物質から合成される。腸管のカルシウムの吸収や骨の沈着を促すことで、子どもの発育に密接に関係している。 女性は、上の

      ビタミンD欠乏症が増加中 子どもの日焼け対策に注意を:朝日新聞デジタル
    • [JS]カラフルな折れ線・棒グラフやパイチャートを描くスクリプト -JS charts

      画像を使用しないで、折れ線グラフや棒グラフ、パイチャートを作成するスクリプト「JS charts」を紹介します。 JS charts demo JS chartsはjQueryなど他のスクリプトに依存せずに動作し、対応ブラウザは下記のようになっています。 Windows IE 6/7 Fx1.5+ Op 9+ Safari 3.1+ Mac Fx 1.5+ Safari 2+ iPhone 1+ 折れ線グラフや棒グラフ、パイチャートを描くには、スクリプトを外部ファイルとして記述し、書式に合わせて記述します。 JS Charts | How to use グラフはCanvasで描かれており、数値はXMLによって管理します。 XMLのサンプル <textarea name="code" class="html" cols="60" rows="5"> <?xml version="1.0"?>

      • dbt導入によるデータマート整備 - ZOZO TECH BLOG

        はじめに こんにちは、ML・データ部推薦基盤ブロックの栁澤(@i_125)です。私はZOZOのデータ基盤におけるデータガバナンス強化を実現するために、Analytics Engineerとして複数の部門を跨ぐプロジェクトチームに参加しています。本記事ではZOZOにおけるデータガバナンス上の課題と、その課題の解決策の1つとしてdbtを導入した話をご紹介します。 目次 はじめに 目次 背景 課題 データマートの乱立 集計定義のばらつき 依存関係の洗い出しが困難 データモデリングツールの比較検討 データ変換に関する要件 データモデリングツールの選定 レイヤリングによる責務の分離 実装方針 今後の展望 dbtモデルを開発する上で工夫したこと 環境の分離 背景 工夫したこと ダミーデータセットの生成 背景 工夫したこと SQLFluffを使ったフォーマット統一 依存モデルを含むテスト dbt Doc

          dbt導入によるデータマート整備 - ZOZO TECH BLOG
        • livedoor Techブログ : livedoor グルメの DataSet を公開

          櫛井です。 以前 livedoor clip のデータを学術研究用に公開しましたが,おかげさまで,たまに発表等で livedoor clip という名前が引用されているのを見かけるようにもなり感慨深い限りです。 さて,今回は第二弾としまして,livedoor グルメのデータをまとめてダウンロード & 利用可能にしようと思います。 今回はいろいろと余裕がなかったため 豪華なイラスト付きページが用意できませんでした livedoor clip のデータとは違い,定期アップデートはされません。2011年4月22日の時点のデータのみとなります ...が,なにかしら皆様の研究のお役に立てればと思います。 よくありそうな質問と答え ライブドアグルメのユーザですが,自分の個人情報が公開されちゃうってこと?困ります! 公開されるのは,もともとライブドアグルメのサイトで誰でも見れるようになっている情報だけで

          • https://atmarkit.itmedia.co.jp/ait/subtop/features/da/dt_adonet_index.html

            • 英語論文執筆のために arXiv からの例文検索サービスを作った話

              arXiv の論文から例文を検索する Hyper Collocation というサービスを公開しました. 以下はあまり整理されていない製作の記録です. 英語論文執筆用の例文検索サービス 英語での論文執筆の際に,専門用語を含む例文や言い回しのパターンを知りたいことが多々あります.有用なサービスとしては ライフサイエンス辞書のコーパス検索 Springer Exemplar (2018/2/1頃に終了) がありますが, データがライフサイエンス系の論文に限られている(ライフサイエンス辞書) ソートの基準が頻度順ではないため典型的な例文が上位にこない ストップワードに近い頻出語を検索した際の 検索が重い(Springer Exemplar) 表示可能な検索結果が偏る(ライフサイエンス辞書) という不満点があったので,並行して個人的な資料から検索を行うプログラムを作って使っていました. しかし,個

                英語論文執筆のために arXiv からの例文検索サービスを作った話
              • 日本語形態素解析器 MeCab を Python から利用する際の語彙データ(UniDic)が AWS 上で Open Data として公開されました | Amazon Web Services

                Amazon Web Services ブログ 日本語形態素解析器 MeCab を Python から利用する際の語彙データ(UniDic)が AWS 上で Open Data として公開されました 多くの機械学習デベロッパーの方々が、AWS 上でさまざまなアルゴリズムの開発やモデルの構築を行なっています。中でも自然言語処理を行う際には、対象言語の特性に即した形で前処理を行う必要があります。日本語の自然言語処理を実施する際には、形態素解析と呼ばれる文章の分解処理を前位処理として一般的に行います。日本語形態素解析を行うためには、日本語の語彙データが必要となりますが、このデータは通常 GB 以上のサイズに及ぶ大きなサイズとなります。またこれらを用いた計算の際にも大量の GPU および CPU を必要とするため、従来こうしたモデルを構築する際には常にストレージおよびコンピューティングのリソースの

                  日本語形態素解析器 MeCab を Python から利用する際の語彙データ(UniDic)が AWS 上で Open Data として公開されました | Amazon Web Services
                • YOLO: Real-Time Object Detection

                  How It Works Prior detection systems repurpose classifiers or localizers to perform detection. They apply the model to an image at multiple locations and scales. High scoring regions of the image are considered detections. We use a totally different approach. We apply a single neural network to the full image. This network divides the image into regions and predicts bounding boxes and probabilitie

                    YOLO: Real-Time Object Detection
                  • 株式会社メディアクリエイト

                    ※同一タイトルで複数のバージョンが存在するもの(ポケットモンスター等)につきましては、 ランキングをより見やすくするため、2009年10月より合算でのランキングに変更させていただきます。 ※データ配信サービスにおきましては、これまで通りバージョン毎の集計となります。 ※各タイトルのメーカー名は発売当時のものとなります。

                    • 江戸時代のくずし字1521文字種・8万6176件の字形データセット無償公開、ディープラーニングを用いた文字認識のサンプルプログラムも~NIIと国文研

                        江戸時代のくずし字1521文字種・8万6176件の字形データセット無償公開、ディープラーニングを用いた文字認識のサンプルプログラムも~NIIと国文研 
                      • ちょっと未来のJavaScript - Thujikun blog

                        本エントリは JavaScript Advent Calendar 201314日目となります。 来年遂にXPが逝去されるということで、IE9以降のシェアが飛躍的に伸びることを祈りつつ、IE9以降でJavaScriptでできるようになることを気がつく限りまとめてみました。 DOM addEventListener / removeEventListener イベントを登録/削除するためのメソッド。IE8まではattachEventとdetachEventという似たような、でも割と細かいところで動きが違うメソッドを使う必要があったが、IE9から標準のaddEventListenerがサポートされている。 ※ jQueryのon/offとかbind/unbindとだいたい同じ。 ※ 第3引数はuseCaptureといって、trueにするとイベント伝播を上位のDOMから発生させることができる。ま

                        • 【脱jQuery】jQuery <=> vanillaJS 書き換え集

                          jQuery <=> JavaScript全書き換え一覧ではありません jQueryで書いていたコードをvanilla(素のJavaScript)に書き換えたいけど書き方がわからなくて調べ方もピンとこない状態の自分がこれを見ることができたらきっと嬉しいと思ったのでここに供養します。 脳の記憶容量が8バイトくらいしかないので今でもシンプルにJavaScriptの書き方をページ内検索して使ったりしています。 /*----------------------------------- セレクター ------------------------------------*/ //html $("html") document.documentElement; //body $("body") document.body; //id $("#hoge"); document.getElementBy

                            【脱jQuery】jQuery <=> vanillaJS 書き換え集
                          • Perlで人工知能・機械学習を行うAI::MXNetの出来が凄そうだ - Perl入門ゼミ

                            最近知った。Perlで人工知能プログラミングを行うAI::MXNetの出来が凄そうだ。ディープラーニングという手法を使った機械学習を行うライブラリです。 これは公式のAmazonクラウドのMZNetでも、Perlの公式ライブラリとして受け入れられたそうだ。 インターフェースはPythonのMXNetライブラリとほぼ一緒に仕上がっているみたい。C++で書かれたMXNetのPerlバインディングになっている。 Perlで人工知能プログラミングを行うAI::MXNet(CPAN) MXNetのかなり多くの機能をPerlから利用できるようだ。Perlで人口知能プログラミングに興味がある方は、ぜひチャレンジしてみて! ライブラリがあるとPerlでも、人工知能プログラミングができるんだね。すごいね! GPUも使えるみたいよ! ## Convolutional NN for recognizing ha

                              Perlで人工知能・機械学習を行うAI::MXNetの出来が凄そうだ - Perl入門ゼミ
                            • メルペイにおける大規模バッチ処理 | メルカリエンジニアリング

                              この記事は MERPAY TECH OPENNESS MONTH の 13日目の記事です。 こんにちは、メルペイ ソフトウェアエンジニアの laughngman7743 です。 メルペイではマイクロサービスにおけるデータストアのデータや、アプリケーションのログを有効活用できるような基盤づくりをデータプラットフォームチームとして行っています。 データプラットフォームではラムダアーキテクチャに基づき、スピードレイヤとして Cloud PubSub と Cloud Dataflow を利用した仕組みに加え、バッチレイヤとして Cloud Composer と Cloud Dataflow を利用した仕組みを構築しています。 この記事ではバッチレイヤのアーキテクチャについてご紹介します。 スピードレイヤのアーキテクチャについては 「GCPでStreamなデータパイプライン始めました」 を参照くださ

                                メルペイにおける大規模バッチ処理 | メルカリエンジニアリング
                              • 効率的な教師データ作成(アノテーション)のための研究サーベイ - ABEJA Tech Blog

                                どうも緒方@conta_です。 みなさんAI頑張ってますか? きっと昼はGPUサーバーを回して、夜は結果待ちでビールサーバーを回してる人が多いことでしょう。 機械学習を実際のプロダクトに活用する場合、自分が解きたいタスクがそのままオープンなデータセットで解決できることは少ないので、まず最初に課題となるのはデータセット作成です。 実際にカメラやセンサーを取り付けて収集したり、Webからクローリングしてきたり、事業会社であれば自社のデータセットに教師ラベルをつけることで新しいタスクに取り組むことが可能になるでしょう。 よく疑問になるポイントとして、データセットの量と質は、多ければ多いほど良く、高品質であれば高品質であるほど良いのですが教師データを作成するのは一苦労です。 *下記アノテーションの量や質について実験した結果がまとまってます tech-blog.abeja.asia もちろん少数デー

                                  効率的な教師データ作成(アノテーション)のための研究サーベイ - ABEJA Tech Blog
                                • anime.udp.jp

                                  ここは、コンピュータでイラストやアニメのキャラクターを識別するプロジェクトのページです。 僕がひとり、趣味で行っています。 目標は、絵を描く人に関係なく、より一般化されたキャラクターというものについて正しく識別できるライブラリを開発し、画像の自動分類や検索に役立てることです。 更新履歴 AnimeFaceを最近の環境で動くようにしてGitHubに置きました(Perl拡張なし) (2016 2/18) Imager::AnimeFaceのビルドスクリプトを修正. Imager-AnimeFace-1.02 (2012 7/30) OpenCV用のアニメ顔分類器にLBPの検出器を追加 (2011 7/18) Ruby拡張ライブラリへのリンク追加 (2010 8/16) 関連リンクを追加,微妙に様々なコメントを修正 (2010 3/30) 昔作ったもの(OpenCV用のアニメ顔分類器,SC),関

                                  • GPT-3の学習データはどのように作られたか - moriyamaのエンジニアリング備忘録

                                    OpenAIが発表した言語モデルGPT-3はパフォーマンスの高さから各方面で注目されており、ついにはMicrosoftが学習済みモデルの利用を独占化しました。 私個人の所感としてこれまで学習済みモデルは無料公開するという流れを無視し、(アーキテクチャではなく)学習済みモデルが商品化するのはAIビジネスの一つの転換期と感じています。 深層学習による自然言語処理分野で巨大化していくモデルを十分に学習させるためにはWebデータの活用が大きな役割を果たしています。一方、その量に関する話題はあるものの、利用にあたっての細かな前処理に関する議論はあまりなされていない印象です。 そこで本記事は学習データの構築にフォーカスします。 GPT-3の論文でも言及されている通り、学習データはGoogle Researchが発表したT5のデータを踏襲したと書かれていますので、まずはT5のデータから見て行きましょう。

                                      GPT-3の学習データはどのように作られたか - moriyamaのエンジニアリング備忘録
                                    • HTML 5 differences from HTML 4

                                      Abstract "HTML5 Differences from HTML4" describes the differences of the HTML5 specification from those of HTML4. Status of This Document This section describes the status of this document at the time of its publication. Other documents may supersede this document. A list of current W3C publications and the latest revision of this technical report can be found in the W3C technical reports index at

                                      • 【Deep Learning入門】0から勉強して3ヶ月でポリープ検出AIをつくったった - Qiita

                                        3ヶ月で出来たもの まずは蠢く内臓の成果物から、これが今回作ったポリープ検出AIです! 上の映像が元の内視鏡の動画で、 下が今回開発した検出AIの動作動画です。 青い枠で「ポリープだよ!」と主張してくれてますね! 3ヶ月の学習の流れ 基礎的な機械学習手法のスクラッチ まずは数学的な理解から始めました。 手法ごとの数式を読んで、それを実装に落としていきます。 - 線形回帰 - 重回帰 - 主成分分析 - Kmeans - 決定木 - SVM 悶え苦しんだのですが、 この時期に数式に対するアレルギーがほぐれていきました! 最初は2乗誤差の微分変形を理解するのに苦労した思い出があります。 このときに一番参考になった書籍は 「やさしく学ぶ 機械学習を理解するための数学のきほん」 です これで機械学習の更新の概念が腹落ちしました。オススメ! kaggleへの挑戦 定番のタイタニックや 良質なコンペの

                                          【Deep Learning入門】0から勉強して3ヶ月でポリープ検出AIをつくったった - Qiita
                                        • 社会保障の「気前良さ」は政府支出の大きさでは測れない - 社会学者の研究メモ

                                          政府は増大する社会保障支出を背景に、いよいよ増税に向けた調整を本格化させている。他方でアカデミズムにおける社会保障論(福祉国家論)をみると、日本は基本的に社会保障に関して低い水準にあるということがたいていの議論の出発点となっており、現在の政府の政策展開とアカデミズムのあいだには奇妙なズレがあることが分かる。 このズレはいかにして生じているのだろうか? ある国の社会保障の手厚さを測る指標としてしばしば社会保障支出のGDP比が用いられる。また、日本政府はしばしば国民負担率という指標を用いる。しかし、たとえば年金支出は高齢化率にしたがって上昇するので、「年金支出の規模が大きいから社会保障が充実している」ということにはならない。失業率と失業手当の関係も同じで、失業率が高ければ失業手当支出も増えるが、かといって雇用関連支出が「充実している」というわけではない。 図は2007年のOECD諸国の社会支出

                                            社会保障の「気前良さ」は政府支出の大きさでは測れない - 社会学者の研究メモ
                                          • 脱jQueryのためにしたこと - ICS MEDIA

                                            脱jQueryという主張をよく耳にします。 私の個人プロジェクト「Beautifl - Flash Gallery」のリニューアルでも、依存しまくっていたjQueryの採用をやめました。 サイトを立ち上げたのは8年前の2009年。最盛期のjQueryをふんだんに使って、インタラクションの充実したRIAの開発に挑戦していました(参照「wonderflのギャラリーサイトBeautiflを作りました」)。 この記事では、なぜjQueryをやめようと思ったのか、別の技術で得たものは何なのかを紹介します。 ▲リニューアルしたBeautiflは、jQueryをすべて抜きました ※この記事は「CSS Grid Layoutをガッツリ使った所感 - ICS MEDIA」に対する後編(JavaScript編)となります。 リニューアルにあたってJavaScriptで改善したかったこと リニューアルにあたって

                                              脱jQueryのためにしたこと - ICS MEDIA
                                            • 研究用にニコニコ大百科の記事とコメント約24GBを公開‐ニコニコインフォ

                                              いつもniconicoをご利用いただきありがとうございます。 このたび、国立情報学研究所情報学研究データリポジトリ(IDR)ご協力の元、ニコニコ大百科の記事データを「ニコニコデータセット」に公開しました。 提供するデータ内容は記事ヘッダデータ、記事本文データ(履歴含む)、掲示板データとなっています。形式はCSVで約24GBあります。非公開の記事や、ユーザーを特定できるIDは含まれていません。 本データは研究目的であればどなたでもご利用いただけます。 希望される方は国立情報学研究所サイトより利用申請をして下さい。 ニコニコ大百科は未来検索ブラジルが運営する『あらゆる言葉について定義や意味、元ネタを解説する辞書・辞典』です。wikipediaと異なり、客観的で真面目な記事だけでなく、主観的で面白い記事も歓迎しています。HTMLやCSSも用いることができるため、見た目に意味を持たせた記事もあるこ

                                              • 【動画解説】2020年に読んだAI論文100本全部解説(俺的ベスト3付き) - Qiita

                                                この記事は私, wataokaが1年間をかけて作り続けた超大作記事です. 総文字数は8万を超えていますので, お好みのところだけでもみていってください. ついにこの時が来ました!!!!! 1年間書き続けたQiita記事です!!!!! ご覧下さい!!!!!https://t.co/eKBwP1zoeB — 綿岡 晃輝 (@Wataoka_Koki) December 31, 2020 俺的ランキング 動画での解説も挑戦してみました! ぜひぜひご覧下さい! 動画のリンク 第3位: Likelihood-Free Overcomplete ICA and Applications in Causal Discovery wataokaの日本語訳「尤度が必要ない過完備ICAと 因果探索における応用」 - 種類: ICA - 学会: NeurIPS2019 - 日付: 20190904 - URL:

                                                  【動画解説】2020年に読んだAI論文100本全部解説(俺的ベスト3付き) - Qiita
                                                • 日本語形態素解析器 Sudachi の語彙データ(SudachiDict)および単語ベクトル(chiVe)が AWS 上で Open Data として公開されました | Amazon Web Services

                                                  Amazon Web Services ブログ 日本語形態素解析器 Sudachi の語彙データ(SudachiDict)および単語ベクトル(chiVe)が AWS 上で Open Data として公開されました 多くの機械学習デベロッパーの方々が、AWS 上でさまざまなアルゴリズムの開発やモデルの構築を行なっています。中でも自然言語処理を行う際には、対象言語の言語ごとの辞書データや単語ベクトルデータを用いることが一般的です。これらのデータは GB 以上のサイズにおよび、また計算の際にも大量の GPU および CPU を必要とするため、従来こうしたモデルを構築する際には常にストレージおよびコンピューティングのリソースの調達が問題となってきました。AWS 上で自然言語処理モデルの開発を行う際には、Amazon SageMaker を用いて学習に必要なリソースを確保することで、ALBERT の

                                                    日本語形態素解析器 Sudachi の語彙データ(SudachiDict)および単語ベクトル(chiVe)が AWS 上で Open Data として公開されました | Amazon Web Services
                                                  • WordNet

                                                    What is WordNet? Any opinions, findings, and conclusions or recommendations expressed in this material are those of the creators of WordNet and do not necessarily reflect the views of any funding agency or Princeton University. When writing a paper or producing a software application, tool, or interface based on WordNet, it is necessary to properly cite the source. Citation figures are critical to

                                                    • jQuery Form Framework - jFormer

                                                      If one of your requirements is to support multiple languages, you must familiarize yourself with supporting Unicode data. An in-depth discussion of Unicode support is outside the scope of this article. Besides, Joel Spolsky has already said it best. What you should know is how Unicode affects your database design (data types used), how it affects the encoding used for your Web application pages, a

                                                      • Brad Choate: OSCON: Subversion Best Practices

                                                        Here’s a summary of an OSCON session I’m attending right now. Every seat in this room is full. This talk is done by Ben Collins-Sussman & Brian W. Fitzpatrick (Google employees). Server best practices Which server to use? Depends. svnserve: Fast, light, quick. Good for simple setups. svn+ssh if you need encryption. Apache: Mount as a network share; flexible authentication; browsing of repository;

                                                        • データエンジニア / Analytics Engineer向けの権限管理のためのTerraform紹介 - yasuhisa's blog

                                                          これは何? 背景: 権限管理とTerraform 権限管理の対象 誰に権限を付与するのか どのスコープで権限を付与するのか どの強さで権限を付与するのか Terraformについて Terraformの概要: 権限管理でTerraformを使うと何がうれしいのか 例: roles/bigquery.jobUserを付与してみる コラム: どこでTerraformを実行するか Terraformでの権限管理の例 例: データセットの作成 例: データセットに対する権限付与 サービスアカウントの管理 iam_member関連の注意点: AdditiveとAuthorativeを意識する Terraformで管理されていなかったリソースをTerraform管理下に置く: terraform import Terraformの登場人物 terraform planやterraform applyの

                                                            データエンジニア / Analytics Engineer向けの権限管理のためのTerraform紹介 - yasuhisa's blog
                                                          • RxJSでMVVMやってる - @hadashiA

                                                            Rxは、すごくUIを書くのに向いているのではないだろうか。アプリケーションの状態を山盛りの変数で管理することから解放され、状態から状態へ変換する関数を書けばよくなるから。 非同期処理を同期っぽく書きたいならawait でいいじゃん。UIイベントを宣言的に書きたければ 2-wayバインディングがあれば良いじゃん。という話では終わらず、その辺の問題解決に加えて、値の発生器を全て同じ宣言にまとめられ、状態変数がなくなるところが書いていて楽しいところです。 // たとえば、、 Observable.fromEvent(searchBox, 'input') // 検索窓に字が打ちこまれたら .debounce(500) // 0.5秒ごとに .map(e => e.target.value) // 入力されたテキストを .filter(q => q.length > 0) // 1文字以上の場合だ

                                                              RxJSでMVVMやってる - @hadashiA
                                                            • ADO.NET SQLite

                                                              SQLite ADO.NET 2.0 ProviderAn open source ADO.NET provider for the SQLite database engine System.Data.SQLite is the original SQLite database engine and a complete ADO.NET 2.0 provider all rolled into a single mixed mode assembly.  It is a complete drop-in replacement for the original sqlite3.dll (you can even rename it to sqlite3.dll).  Unlike normal mixed assemblies, it has no linker dependency o

                                                              • コンビニ検索:【コンビニまっぷ】 - コンビニ検索:【コンビニまっぷ】

                                                                「コンビニまっぷ」は全国のコンビニエンスストアを都道府県別/地図/キーワードで検索できるサイトです。セブンイレブン、ロ-ソン、ファミリーマート、ミニストップ、ポプラ、デイリーヤマザキ、セイコーマートなどのコンビニ店舗やATM探しにご活用ください。さらにコンビニの最寄りのバス停や病院なども調べることができます。

                                                                  コンビニ検索:【コンビニまっぷ】 - コンビニ検索:【コンビニまっぷ】
                                                                • 【秒速で無料GPUを使う】TensorFow(Keras)/PyTorch/Chainer環境構築 on Colaboratory - Qiita

                                                                  【秒速で無料GPUを使う】TensorFow(Keras)/PyTorch/Chainer環境構築 on ColaboratoryDeepLearningChainerTensorFlowPyTorchcolaboratory 2019/5/11 PR: こちらの内容を含め、2019年5月11日発刊の 図解速習DEEP LEARNINGという本ができました。[2019年5月版] 機械学習・深層学習を学び、トレンドを追うためのリンク150選 - Qiitaでも、一部内容をご覧いただけます 19/1/11 18年1月の公開後、TensorFlow本体にKeras統合、Chainerがデフォルトで提供となるなど、状況が変化したため、大幅に加筆しました。TensorFlow 2.0 Previewについても追記しました。 19/1/31 PyTorchが標準インストールとなったこと、PyTorch

                                                                    【秒速で無料GPUを使う】TensorFow(Keras)/PyTorch/Chainer環境構築 on Colaboratory - Qiita
                                                                  • wxWidgets: Cross-Platform GUI Library

                                                                    wxWidgets is a C++ library that lets developers create applications for Windows, macOS, Linux and other platforms with a single code base. It has popular language bindings for Python, Ruby, Lua, Perl and several other languages, and unlike other cross-platform toolkits, wxWidgets gives applications a truly native look and feel because it uses the platform's native API rather than emulating the GUI

                                                                    • OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試す|npaka

                                                                      OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試したのでまとめました。 1. GPT-4 から GPT-3.5 への蒸留「LlamaIndex」で、OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留のColabが提供されてたので、それをベースに独自データで試してみました。 具体的には、「GPT-4」で学習データを生成し、「GPT-3.5」でファインチューニングすることで、「GPT-3.5」に「GPT-4」相当の知識を習得させます。 We successfully made gpt-3.5-turbo output GPT-4 quality responses in an e2e RAG system 🔥 Stack: automated training dataset creation in @ll

                                                                        OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試す|npaka
                                                                      • 移り変わる「データサイエンティストの『常識』」について考える - 渋谷駅前で働くデータサイエンティストのブログ

                                                                        (Image by Pixabay) 先日、こんな話題を見かけました。 【夏なので怖い話】 こないだ、いかにもエリートな男性と知り合ったんですよ 彼は年収1000万で飛ぶ鳥を落とす勢いのデータサイエンティストだっていうじゃないですか それでふとAICの話題を持ちかけたんです 「あー現実であまり使わない数学の話はわかりません」 …おわかりいただけただろうか?— ゆうな (@kawauSOgood) 2019年8月14日 で、悪ノリした僕はこんなアンケートをやってみたのでした。 データサイエンティストという肩書きで年収1000万円以上の高給取りが、知らなかったとしても許される項目はどれですか— TJO (@TJO_datasci) 2019年8月15日 このアンケート結果こそが、今回の記事を書こうと思ったきっかけです。ある程度知識のある方ならお分かりかと思いますが、ここで挙げた「AIC」「正則

                                                                          移り変わる「データサイエンティストの『常識』」について考える - 渋谷駅前で働くデータサイエンティストのブログ
                                                                        • 24. グラフ生成ライブラリの紹介(1)

                                                                          Webサイトを構築していると、サイトの運営状況やアクセス数の管理など、さま ざまな場面でグラフを使用する必要が出てきます。 自分でグラフの描画を行うスクリプトを1から作るのは非常に大変ですが、Web上 には公開されているグラフ描画ライブラリが数多く存在します。 今回はその中から7つのグラフ生成ツールを紹介したいと思います。 ここでは各ライブラリを使用して、最もシンプルな棒グラフの生成方法を紹介し ます。 前編後編に分けて紹介し、前編ではPEAR::Image_Graph、JpGraph、PHP/SWF Charts、HTML-GRAPHs(PHP)を紹介します。 ・PEAR::Image_Graph  http://pear.veggerby.dk/ PEARのグラフ生成ライブラリです。 オープンソースのグラフ描画ライブラリ GraPHPite を元に作成されています。 PEAR::Ima

                                                                            24. グラフ生成ライブラリの紹介(1)
                                                                          • Datasift - Tuning Your Tweets

                                                                            We have the most robust dataset across media, social and consumer trends, but it's what you do with it that matters. With powerful AI we turn that data into insight you can act on. Our tools empower your teams to be insight pros. So everyone, from your PR manager to your marketing director, can confidently uncover insights that drive strategy.

                                                                              Datasift - Tuning Your Tweets
                                                                            • Classical Archives (c) 2002 Classical Archives, LLC

                                                                              • ブラウザ上でデータ分析が出来る!Clojure/Gorilla入門 - あんちべ!

                                                                                概要 この記事は、Gorillaという ブラウザ上でClojureという言語を利用出来るライブラリを利用し、 ブラウザ上でデータ分析環境を構築するための入門記事です。 Clojureの事前知識は一切不要で、 ClojureやGorillaのインストールから、ブラウザ上で各種手法を コピペだけで実践出来るになるまでを説明しています。 なお、各種分析手法の詳細には言及しておりません。 とにかくGorillaを動かす 「説明は良いから、とにかく動かしたい」 という方向けに要点だけ説明します。 leiningenをインストールし、作業フォルダにてlein new gorillaでプロジェクトを作り、 生成されたgoraillaフォルダ直下にあるproject.cljに下記をコピペし保存、 lein gorillaと打ち込み、少し待つと Running at http://localhost:XXX

                                                                                  ブラウザ上でデータ分析が出来る!Clojure/Gorilla入門 - あんちべ!
                                                                                • パフォーマンステスト自動化の取り組み - GeekFactory

                                                                                  このところ、Webアプリやバッチのパフォーマンステストを自動化するために四苦八苦してるので書いてみます。 パフォーマンステストは泥臭い作業です。毎回似たような感じで待ち時間の長い単調作業と、ボトルネックを解析して実装やミドルウェア設定を見直すような神経を使う作業が入り混じって疲れます。このうち前者を自動化してしまえば、本質的な部分に力を注げるだけでなく、夜間や休日を活用して多くのバリエーションを試すことができます。 パフォーマンステストの流れはWebアプリとバッチで以下のように整理できると思います。 Webアプリ デプロイメント クライアントサイド(負荷生成側)で必要なデータセットの準備 サーバサイドで必要なデータセットの準備 アプリケーションの設定 負荷生成 クライアントサイドのログ収集 サーバサイドのログ収集 分析 バッチ デプロイメント サーバサイドで必要なデータセットの準備 アプリ

                                                                                    パフォーマンステスト自動化の取り組み - GeekFactory