並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 15 件 / 15件

新着順 人気順

opendataの検索結果1 - 15 件 / 15件

  • 日本の行政機関等が公開しているAPIについてのまとめ(2016年8月17日暫定版。随時更新) - Qiita

    この記事は下記のURLにあるコミックマーケット90で頒布した同人誌と自分が管理するブログの記事を微修正し、転載したものです。 南関東開発機構 : 同人誌「日本の行政機関が公開中のAPIについて調べてみた本」を公開しました http://blog.livedoor.jp/south_kanto_dm/archives/52143201.html 南関東開発機構 : 日本の行政機関が公開中のAPIについてのまとめ(2016年8月17日暫定版) http://blog.livedoor.jp/south_kanto_dm/archives/52143463.html 前書き この記事の目的は、日本の行政機関等が公開しているAPIを紹介する事です。 日本の情報技術は他国と比較して、立ち遅れている部分があり、これを立て直すのが喫緊の課題であると言えます。 日本政府もこの問題に危機意識を持ち、先日、経

      日本の行政機関等が公開しているAPIについてのまとめ(2016年8月17日暫定版。随時更新) - Qiita
    • エストニアのデジタル国家ソリューションのすべてのソースコードが公開されます

      エストニアの経済通信省と国家情報システム局が提供する「電子政府コードリポジトリ」により、将来的には、セキュリティ上の理由から特に要求されない限り、エストニアのデジタル国家ソリューションのすべてのソースコードが公開され、誰でも使用できるようになると。 Estonia creates a public code repository for e-governance solutions データの再利用を進めるEUでは、オランダやマルタ共和国など、電子政府で使用するソースコードを公開している事例がありますが、総合的な電子政府コードリポジトリ(電子政府ソースコードの再利用サービス)を提供するはエストニアが初めてなのではないでしょうか。これは非常に重要な試みで、一般的な電子政府が最終局面に入ってきたことを意味します。 個人的には、いわゆるGAFA(Google、Amazon、Facebook、App

      • ノンデザイナーでもできる!写真を使ったイケてるメイン画像の作り方 - CAMPHOR- Tech Blog

        こんにちは、あんみつ(@murata_atsumi)です。 この記事はCAMPHOR- Advent Calendar 2014の20日目の記事です。 私ブログが超苦手で普段からあんまり書かないから、何書こうか迷ったのですが、 一応CAMPHOR-には主にデザインの部分で関わることが多いので、 デザインのことを書こうと思います! はじめに エンジニアの皆さん、そしてそうじゃない皆さんも、たまに『メイン画像』を作らなければいけないときがあるんじゃないでしょうか。 メイン画像というのは、こういうのとか (引用:https://www.cyberagent.co.jp/recruit/fresh/internship/ ) (引用:http://tokyometro10th.jp/future/opendata/ ) こういうのとかですね。 または、Facebookページのカバー画像や、OGP用

          ノンデザイナーでもできる!写真を使ったイケてるメイン画像の作り方 - CAMPHOR- Tech Blog
        • ニコニコ動画の公開コメントデータをDeep Learningで解析する - Qiita

          この記事は第2のドワンゴ Advent Calendar 2015の24日目の記事です。 ドワンゴエンジニアの@ixixiです。 niconicoのデータをDeep Learningなアプローチで解析してみた話です。 nico-opendata niconicoの学術目的用データ公開サイト https://nico-opendata.jp が最近オープンしました。 これまでも、国立情報学研究所にて、ニコニコ動画コメントデータや大百科データが公開されていましたが、 nico-opendataでは、ニコニコ静画のイラストデータの約40万枚のイラストとメタデータが研究者向けにデータ提供されています。 今回は、ニコニコ動画コメントデータ(誰でも取得可能)を用いたDeep Learningによるコメント解析例を紹介します。 超自然言語 ニコニコのコメントデータに限らず、twitterでのtweetや

            ニコニコ動画の公開コメントデータをDeep Learningで解析する - Qiita
          • パリの美術館所蔵の10万点以上のアート作品画像が無料取得、商用利用が可能に

            『Soleil couchant sur la Seine à Lavacourt, effet d'hiver』Monet, Claude/Paris Musées POPなポイントを3行で パリの美術館に所蔵されている約10万点のアート作品 高解像度画像が無料でダウンロード可能に 「クリエイティブコモンズゼロライセンス」のもと商業利用も パリ市内にある14の美術館に所蔵されている10万点以上に及ぶアート作品の高解像度画像が無料でダウンロードできるようになった。 これは上記の美術館を統括する公的機関・ParisMuséesが1月8日に発表したもの。 印象派を代表するフランスの画家であるクロード・モネや写実主義画家のギュスターヴ・クールベらの歴史的価値の高い作品画像が、商業的使用の有無にかかわらず使用できる。 ※記事初出時に公開作品の数に関して「約1万点以上」と誤りがございました。正しくは

              パリの美術館所蔵の10万点以上のアート作品画像が無料取得、商用利用が可能に
            • はじめるDeep learning - Qiita

              そうだ、Deep learningをやろう。そんなあなたへ送る解説記事です。 そう言いながらも私自身勉強しながら書いているので誤記や勘違いなどがあるかもしれません。もし見つけたらご連絡ください。 Deep learningとは こちらのスライドがとてもよくまとまっています。 Deep learning つまるところ、Deep learningの特徴は「特徴の抽出までやってくれる」という点に尽きると思います。 例えば相撲取りを判定するモデルを構築するとしたら、普通は「腰回りサイズ」「マゲの有無」「和装か否か」といった特徴を定義して、それを元にモデルを構築することになります。ちょうど関数の引数を決めるようなイメージです。 ところが、Deep learningではこの特徴抽出もモデルにやらせてしまいます。というか、そのために多層、つまりDeepになっています。 具体的には頭のあたりの特徴、腰のあ

                はじめるDeep learning - Qiita
              • ドワンゴ、イラスト投稿作品の閲覧数を事前予測する技術を発表

                ドワンゴは、イラスト投稿サービス「ニコニコ静画」の投稿作品を活用したディープラーニング技術の研究成果を、11月2~5日に神戸で開催される、コンピュータグラフィックスとインタラクティブ技術に関する展示会「第8回ACM シーグラフアジア2015」で発表する。あわせて、学術機関向け研究目的データ公開用サイト「nico-opendata」を開設。12月上旬から大学などの学術機関にデータを提供していくという。 発表するのは、イラストの画像データからニコニコ静画での閲覧数を事前予測する技術。ニコニコ静画に投稿されたこれまでのイラストの閲覧数、お気に入り数を同時にニューラルネットで学習し、一切のメタデータを使わず、画像データからのみ閲覧数やお気に入り数を予測するものだと説明している。 ドワンゴによれば、たとえば、クリエイターがイラストを投稿、公開する前に、画像のデータから閲覧数やお気に入り数をある程度予

                  ドワンゴ、イラスト投稿作品の閲覧数を事前予測する技術を発表
                • 政府統計データ、API提供開始 実際に取得し可視化してみた:オープンデータ情報ポータル

                  2013/06/21 データジャーナリズム 総務省では、6月10日から統計データのAPI(Application Programming Interface)提供を開始した。インターネットを通じて機械的にデータを取得し、自社の持つシステムやウェブサイトで活用することができる。 独立行政法人統計センターが運用している「次世代統計利用システム」で試験的に行っているもので、登録すれば誰でも利用できる。現在APIで提供されているのは、国勢調査、住宅・土地統計調査、地域メッシュ統計、消費者物価指数など総務省統計局所管の統計で、データ量は表にして約32,000、約47億セルに及ぶ。 政府から最新データが提供されると、利用者側のウェブサイトでも自動的に同期して更新するようにしたり、政府データとその他のデータをシステム上で組み合わせて分析する、といった利用を想定している。 総務省ではこの試験運用でノウハウ

                  • 鯖江市が「オープンデータ」先端を行く理由

                    近年、政府や地方自治体が行政に関わるデータを公開し、それを行政や民間がウェブサービスやアプリという形で利用できるようにする、「オープンデータ」の動きが、急激に進んでいる。 日本政府も6月「世界最先端IT国家創造宣言」を閣議決定。オープンデータを推進する方針が確認された。そんな中、草の根レベルで日本の最先端を行く「オープンデータ」を実践している自治体がある。福井県鯖江市だ。 福井県の中央部に位置し、人口6万人を抱える鯖江市は、メガネ、漆器、絹に続く第4の産業の柱に「IT」を据え、「データシティ鯖江」として、オープンデータをいち早く推進。今年3月には産官学からなるオープンデータ流通推進コンソーシアムの最優秀賞を受賞したほか、公開されているデータの数で2位の横浜市を倍近く突き放して1位になるなど(CityData調べ)、「日本で最もオープンデータが進んでいる街」といって過言でない。

                      鯖江市が「オープンデータ」先端を行く理由
                    • 日本声優統計学会

                      日本声優統計学会は声優,声,アニメ作品,ラジオ,アニメソング,アニメイベント,アニメスタッフ,及び声優ファンにまつわる諸現象に対して数理統計的・機械学習的アプローチを用いて分析する集団です. 日本声優統計学会は正式な学会ではなく,同人活動を行うサークルです. 独自に構築した音素バランス文,及びそれらをプロの女性声優 3 名が 3 パターンで読み上げた音声です. (2020.11.01) あなたがライセンスがある程度自由な音素バランス文やその読み上げ音声を必要としている場合,声優統計コーパスではなく, JVS コーパスの利用を検討してください.より詳しい説明はこちらの文章をお読みください. 更新履歴 詳細な変更履歴はこちら (ChangeLog.md) をご確認ください. 2021年02月28日 : つくよみちゃんコーパスへのリンクを追加. 2020年11月01日 : JVS corpus

                      • 機械学習のデータセットを可視化する「Facets」で遊んでみた - paiza times

                        秋山です。 先日、Google Open Sourceで「Facets」という機械学習向けデータセットの可視化ツールが公開されました。 サイトはこちら opensource.googleblog.com (※Chromeであれば、ブラウザ上でどういったことができるかのデモを触れます。Safariだとうまく動かない?ようなのでご注意ください) GitHubはこちら github.com デモのようにブラウザ上でデータを可視化したり、Pythonライブラリのjupyter内で使ったりすることができます(ブラウザで表示させるかjupyter内で表示させるかだけの違いですが…) 例えば巨大なデータを扱っていて、うまく分離できていないデータ群はどの辺りになるのか…といったことを可視化して眺めたいときなどによさそうなので、実際にちょっと使ってみたいと思います。 ■Facets使ってみた Facetsに

                          機械学習のデータセットを可視化する「Facets」で遊んでみた - paiza times
                        • 新型コロナワクチンの接種状況(一般接種(高齢者含む)) | 政府CIOポータル

                          CIOポータルのワクチン接種状況ダッシュボードおよびオープンデータは、廃止となりました。(2022.2.28 掲載) リニューアルされた新しいダッシュボードおよびオープンデータをご利用ください。 リニューアル先は以下の通りです。 ダッシュボードおよびオープンデータ:https://info.vrs.digital.go.jp/dashboard/ オープンデータの仕様:https://info.vrs.digital.go.jp/opendata/

                          • 新型コロナウイルス感染者情報のグラフ - 総合政策部次世代社会戦略局デジタルトランスフォーメーション推進課

                            〇新型コロナウイルス感染症の感染症法上の位置づけが2類相当から5類へ変更することに伴い、毎日報道発表を行っていた「新型コロナウイルスに関連した患者の発生について」は、5月7日の発生状況を翌8日に公表し終了となります。 〇全数把握による最終公表日となる5月8日(月)15:00の公表内容は次のとおりです。 《公表内容》 ・道及び保健所設置市公表分の新規陽性者(陽性者登録センター含む)及び死亡者数、並びに道公表分の患者の発生状況(年代別患者内訳及び医療機関所在地別内訳)を公表します。 ・「2 入院等の状況」「3 北海道の状況」については、5月8日(月)当日の公表はありません。 ・毎週火曜日に公表してきた「市町村別の患者の状況(1週間累計報(最高資料))」については、5月2日(火)から5月7日(日)までの6日分を集計して公表します。 <詳細は以下のページをご確認ください>

                            • Kaggleを取り掛かるまでにやったこととと、モチベーションの維持のために必要だったこと - にほんごのれんしゅう

                              Kaggleを取り掛かるまでにやったこととと、モチベーションの維持のために必要だったこと わたしの経験した、最初のKaggleの一歩と、実際にKaggleに対するモチベーションがそれなりに加熱するまでにやったことと、息切れしない心の持ち方です。 KaggleがDataScienceに携わるものの価値の可視化の基軸の一つになっていますが、まだ取り掛かれない or 心が折れそう人のために、私に必要だったきっかけと、私が行ったモチベーションコントロールを含めて記します。 まだまだkaggleは弱いですが、継続的に、日々の生活の中に組み入れるまでが大変でした。 目次 既存の機械学習関連の技術者にとってのKaggleの認識のあり方 すでに機械学習アルゴリズムを知っているがやるべきか 競技プログラミングは業務コーディングで役に立たないロジックが、Kaggleの業務のデータ分析との関係にも成り立つか 挑

                                Kaggleを取り掛かるまでにやったこととと、モチベーションの維持のために必要だったこと - にほんごのれんしゅう
                              • 日本語形態素解析器 MeCab を Python から利用する際の語彙データ(UniDic)が AWS 上で Open Data として公開されました | Amazon Web Services

                                Amazon Web Services ブログ 日本語形態素解析器 MeCab を Python から利用する際の語彙データ(UniDic)が AWS 上で Open Data として公開されました 多くの機械学習デベロッパーの方々が、AWS 上でさまざまなアルゴリズムの開発やモデルの構築を行なっています。中でも自然言語処理を行う際には、対象言語の特性に即した形で前処理を行う必要があります。日本語の自然言語処理を実施する際には、形態素解析と呼ばれる文章の分解処理を前位処理として一般的に行います。日本語形態素解析を行うためには、日本語の語彙データが必要となりますが、このデータは通常 GB 以上のサイズに及ぶ大きなサイズとなります。またこれらを用いた計算の際にも大量の GPU および CPU を必要とするため、従来こうしたモデルを構築する際には常にストレージおよびコンピューティングのリソースの

                                  日本語形態素解析器 MeCab を Python から利用する際の語彙データ(UniDic)が AWS 上で Open Data として公開されました | Amazon Web Services
                                1