本ドキュメントははてなにおける技術文書の目次となっています。主にはてなスタッフがその作成と更新を行っています。
いわゆる学術情報系のAPIはもちろんですが、 それ以外でも、アイデア次第で図書館で使えそう、 というものはあるかと思うので、そういうのを発掘したいです。 学術情報系のAPIも、ブログパーツ、OPACパーツ的に、 貼りつけて、パラメータいじる程度で使える、 という例を貯めていけるといいなぁと思っています。 とりあえず、使えそうなAPIを以下に書き出してみました[前田] API類は数が多いので,機能から整理したほうがよいと思います。 以前自分が整理に使用していた下記の4分類と主な対象で前田様の羅列を整理してみました。[山田@山形] 山田さんの整理を受けて、非整理のリストを削除しました。ありがとうございました。 > 山田さん / APIの追記のほどお願いできないでしょうか。 > 小野さん、外崎さん [前田] (総合解説) 書籍情報を提供しているウェブAPIを活用した図書館サイト構築方法の紹介記事
cles::blog 平常心是道 blogs: cles::blog NP_cles() « GPLがVersion3に :: 自分の携帯番号を覚えていない » 2007/07/01 Yahoo!APIで特徴語抽出を作る YahooAPI nlp 78 4へぇ NP_MetaTagsではmetaタグのkeywordsを記事の本文から特徴後を抽出して自動的に生成する機能があり、これはBulkfeedsの特徴語抽出APIを使わせてもらっていました。ところが、このところBulkfeedsが落ちたままなので別の方法で特徴語抽出ができる方法がないか探してみました。 [を] 形態素解析と検索APIとTF-IDFでキーワード抽出 目的:キーワード抽出対象テキストから、そのテキストを代表する キーワードを抽出します。TF-IDF という指標を用います。(この値が大きいほどその単語が代表キーワードっぽい
形態素解析と検索APIとTF-IDFでキーワード抽出 2005-10-12-1 [Programming][Algorithm] 形態素解析器と Yahoo! Web 検索 API と TF-IDF を使ってキーワード抽 出するという先日の検索会議でのデモ、KEYAPI[2005-09-30-3]。 教科書に載っているような基本中の基本ですが、あらためてエッセンスを 簡単な例で解説したいと思います。 目的:キーワード抽出対象テキストから、そのテキストを代表する キーワードを抽出します。TF-IDF という指標を用います。(この値が大 きいほどその単語が代表キーワードっぽいということでよろしく。) TF-IDF を計算するためには、 (1) キーワード抽出対象テキスト中の代表キーワード候補出現数 (TF)、 (2) 全てのドキュメント数 (N)、 (3) 代表キーワード候補が含まれるドキュメ
ふわっと関連検索にもどる [ CiNii / CiNii著者 / NDLサーチ / レファ協 / J-STAGE / WorldCat / DPLA / Springer / 教育研究論文索引 / 一橋大学OPAC ] 目次 ふわっと関連検索とは? 検索できるデータベースは? ソースコードは公開されていますか? いま使っているデータベースでも、「ふわっと○○関連検索」してみたい 検索結果の並び順は? もっと簡単に使うには ブックマークレット 自分のWebサイトで使うには?(ブログパーツ) 開発者向けAPIの提供 名前の由来 謝辞 ふわっと関連検索とは? 任意のテキストを対象に、文書類似度を使って文献検索できるツールです。 いまのところ、CiNiiやNDL PORTAなどを対象にした文献検索を用意しています。 また、外部のサイト上からも簡単に呼び出せるようにAPIにも対応しています。 詳細は
2007.11.15 Python から Yahoo! 日本語形態素解析Webサービスを使う (2) テーマ:プログラミング言語 Python を使う(336) カテゴリ:Python Python から Yahoo! 日本語形態素解析Webサービスを使う (1) では、ヒビノキロク: Yahoo! 形態素解析 API for Python の webma.py を使わせてもらうかなということで、そこで使われているライブラリを見ていたら、前置きが長くなってしまった。lxml と formencode がインストールされていないとこれは使えないよということでインストールを済ませたら早速使ってみる。 とりあえず ヒビノキロク: Yahoo! 形態素解析 API for Python コードを webma.py として保存して、lib/site-package に放り込む。コード中の、defau
2007.11.15 Python から Yahoo! 日本語形態素解析Webサービスを使う (1) テーマ:プログラミング言語 Python を使う(336) カテゴリ:Python 日本語形態素解析Webサービス を使ってなんかするかな。とりあえず、だれか Python でいいもの作っていないかなぁと捜してみると、2つ見つかった。 ヒビノキロク: Yahoo! 形態素解析 API for Python Inforno: Python版 Yahooテキスト解析 APIライブラリ ヒビノキロク の方は、pyparsing を使った 検索式を構文解析するPythonモジュール とかも公開されている。pylonshqのWikiのソースを表示するGreasemonkey マニアだなぁ。Monoで.NET Compact Framework向けのアプリケーションをコンパイルする とかもある。 In
Python から Yahoo! 日本語形態素解析 Web サービスを使うための Wrapperを書いてみました。 ついでに前回紹介させてもらった「うはぁ検索」に組み込んで Wiki と はてな と Yahoo!日本語形態素解析Webサービス とAmazon を同時に検索する 「うひゃ検索」 に進化させてみました。 http://small-world.sakura.ne.jp/whya.cgi Yahoo! では形態素解析用の辞書のメンテナンスをしているとのことで 頻繁に検索される言葉は辞書に登録されているようです。 この辞書に登録されていればかなりメジャーな言葉といえそうですね。 ちなみに一般的な辞書に載ってなくって登録されているのは モーニング娘。( 名詞 ) しょこたん ( 名詞 ) ごっつい ( 形容詞 ) 等 残念ながら? まだ登録されていないのは。 ブラッディ・マンデイ (
Home > Index > Google App Engine からYahoo!日本語形態素解析Webサービスを利用する方法 Oreillyの「集合知プログラミング」の付録Cを参考に Google App Engine上から Yahoo!日本語形態素解析Webサービス を利用しようとするとうまくいかない。 調べてみると、quote_plus や urlopen が問題になるようです。 以下のように、 The URL Fetch API に置き換えて形態素解析を呼び出すとうまく作動しました。 splitter.py from google.appengine.api import urlfetch from urllib import urlencode from BeautifulSoup import BeautifulSoup #pageurl='http://api.jlp.yah
YouTube の動画コンテンツと機能をウェブサイト、ソフトウェア アプリケーション、デバイスに組み込むことができる
いま,Webの世界は大きく変わろうとしています。検索エンジンはどんどん進化し,ブログやSNS(Social Networking Services)といった新しいアプリケーションが登場して,Webの用途は広がり,便利になっています。 プログラマにとってのWebの姿も大きく変わっています。従来,Webでプログラミングといえば,サーバーで動作するWeb/DBアプリケーションの構築か,JavaScriptで動的なWebページを作成することを指すのがほとんどでした。最近はこれに加えて,Web上に散在するAPI(Web API)を利用するプログラミングが流行しつつあるのです。 インターネット上のサービスを 自分のプログラムに組み込める 「API」と言えばOSの機能をプログラムから利用するための窓口というイメージがあると思います。Web APIとは,WebにおけるAPI,つまりWeb上にあるサービスを
「図書系職員のためのアプリケーション開発講習会」は、東京大学情報基盤センターが主催する東京大学の図書系職員向けの講習会です このページでは、講習会の受講生が開発したアプリケーションを公開しています。 利用者向けサービス 全国大学図書館員向けツール 業務担当者向けツール(学内アクセス限定) 開発中のツール サービスを休止したツール <<講習会資料へのリンク>> 1.利用者向けサービス 東京大学OPACの書誌詳細表示画面から、東京大学生協在庫検索の確認をシームレスに行なえるツールです。これは、東大図書館の所蔵資料で自分用に欲しい本を、キャンパス内の生協で即購入したいという利用者のニーズに対応するものです。IE7やFireFoxブラウザでのご利用が可能です。なお、和書限定になりますので、その点はご了解ください サービス名及びリンク解説開発者新OPAC対応
※この情報は、掲載された当時の情報であり、現在はメンテナンスされていません。新規で開発する場合には、このコードを再利用することは推奨しません。 概要 Javascriptのコードを埋め込むだけで、簡単にカーリル 図書館APIが使えるライブラリです。 利用できるクラスは3つです。 Calil - 図書館の蔵書情報を取得 CalilRender - 蔵書情報、予約ボタンの表示 CalilCitySelectDlg - 市町村選択ダイアログの表示、選択された図書館のsystemidの取得 CSSでデザインを変更することができます。 サンプル 必要環境 jQuery 1.3 以上(1.4でも可)が必要です。 図書館APIの開発者用アプリケーションキーが必要です。 ⇒アプリケーションキーは、こちらから申請してください。 埋め込み用のCSS,Javascriptファイルサンプル <link href=
ここでは、Google Maps JavaScript API(version 3)を使って遊ぶ方法を説明したいと思います。 Google Maps JavaScript APIを使うと、グーグル社が提供する衛星写真や地図を使ってホームページ上で色々なものを作れます。 対象とする読者は初心者もしくは入門者です。 Google Maps APIはJavaScriptを使って書いてあるので、JavaScriptの知識があった方がわかりやすいと思いますが、Java Scriptがわからなくても何と無くわかるような説明を目指したいと思っています。 基本編 Google Maps APIの単純な例 地図の種類を切り替える 地図の中心を移動する 地図上にふきだしを表示 地図がクリックされたときの処理 マップタイプコントロールを無効にする 緯度経度取得ツール 要望が多いので緯度経度情報を取得するツールを
hon.jpでは、企業ユーザーもしくはWebスクリプティングに興味あるユーザーがhon.jpのデータにアクセスするためのWebサービスAPIを、REST方式で開発者向けに提供しており、hon.jpサイト会員ユーザーにも、管理画面の中で「XML出力機能」としても提供しております。具体的には、本サービスを使うことで、URLに指定のパラメータを追加してhon.jpサーバーを呼び出すことで、XMLの形でhon.jpの電子書籍メタデータDBの内容を取得することができます。 提供されるXMLをそのまま利用する以外に、XSLTを指定することで、XMLを好みのように自動加工したり、必要な情報のみを得ることができます。 使い方によっては、このようなプログラムやこのようなプログラムやこのようなプログラムやこのようなプログラムも簡単につくれます。 なお、「hon.jp Webサービス」のご利用には、hon.j
「Code4Lib」の皆様にご協力を頂き、報告会でカーリルも発表させて頂くことになりました! お近くの方、お時間のある方はぜひお越し下さい。 ▼イベント概要 『Code4Lib 2010報告会』 日時:2010年3月20日(土) 14:00受付開始 場所:国立教育政策研究所 6階 第1特別会議室 参加費:無料 詳細・参加申し込みは下記HPよりお願いします。 http://kaede.nier.go.jp/wiki/?code4lib2010 (※事前申し込みが必要です。定員に達しない場合は、当日参加も可能) 当日は、APIについて重大発表があるかも!? ご興味のある方はぜひご参加ください。 ご来場頂けない場合も、USTでの中継を予定しておりますので 是非ご覧ください。
WorldCat Search API: Background Search with OpenSearch or SRU and get RSS, Atom, MARC XML or Dublin Core responses. Find books, video, music and more in the WorldCat database Send searches in OpenSearch or SRU CQL syntax Get OpenSearch responses in RSS or Atom format Get SRU responses in MARC XML or Dublin Core Get MARC XML content for a single OCLC record Get geographically-sorted Library inform
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く