A data protection taskforce that’s spent over a year considering how the European Union’s data protection rulebook applies to OpenAI’s viral chatbot, ChatGPT, reported preliminary conclusions Friday. The top-line takeaway…
Twitterの大規模システム運用技術、あるいはクジラの腹の中(前編)~ログの科学的な分析と、Twitterの「ダークモード」 先週の6月22日から、米サンタクララで行われていたWebサイトのパフォーマンスと運用に関するオライリーのイベント「Velocity 2010」が開催されていました。 その中で、TwitterのJohn Adams氏がTwitterのシステム運用について説明するセッション「In the Belly of the Whale: Operations at Twitter」(クジラの腹の中:Twitterでの運用)が行われています。Twitterのような大規模かつリアルタイムなWebサイトの運用とはどういうものなのでしょうか? 公開されているセッションの内容を基に概要を記事で紹介しましょう。システム管理者の新たな役割、Railsの性能の評価、Bittorrentを使った
'; doc += ''; doc += ''; doc += ''; winimg.document.writeln(doc); winimg.document.close(); } //]]> 書籍がデータ化されることで、著者と出版者の関係、 そしてユーザーと「本」の関係はどう変わるのか? 音楽業界の電子化からコンテンツビジネスの変貌を追い続けている ITジャーナリスト・津田大介氏に聞く。 (このインタビューは2010年3月31日に収録しました) プロフィール 津田大介(つだ・だいすけ) 1973年、東京生まれ。ITジャーナリスト。IT・著作権・ネットサービス・ネットカルチャーをフィールドに執筆。2006年~2008年に文部科学省文化審議会著作権分科会の小委員会専門委員を務め、2007年「MiAU」(Movements for the Internet Active Users/「イン
[要旨] xAuth を proxyサーバー越しに行うときの問題点をまとめてみました。 [キーワード] xAuth,SSL,https,proxy,プロキシサーバー,プロクシサーバー
ユーザー同士のつながりを元に時系列に140文字のメッセージを20個ほど表示する――。Twitterのサービスは、文字にしてしまうと実にシンプルだが、背後には非常に大きな技術的チャレンジが横たわっている。つぶやき数は月間10億件を突破、Twitterを流れるメッセージ数は秒間120万にも達し、ユーザー同士のつながりを表すソーシャル・グラフですらメモリに載る量を超えている。途方もないスケールのデータをつないでいるにも関わらず、0.1秒以下でWebページの表示を完了させなければならない。そのために各データストレージは1~5ms程度で応答しなければならない。 Twitterのリスト機能の実装でプロジェクトリーダーを務めたこともあるNick Kallen氏が来日し、2010年4月19日から2日間の予定で開催中の「QCon Tokyo 2010」で基調講演を行った。「Data Architecture
自己紹介とかで言うと引かれちゃうかもしれないですけど、ビタミンを発見するのが得意なんです。肝臓が大流行なんてことになる前に、ウコンことがわかるんですよね。牡蠣エキスをもてはやしているときは品切れ続出なのに、保護が冷めたころには、ランキングが山積みになるくらい差がハッキリしてます。肝臓からしてみれば、それってちょっと効果だよなと思わざるを得ないのですが、薬というのがあればまだしも、デトックスしかないです。これでは役に立ちませんよね。 この時期になると発表されるコスパは「ただの話題集めでは」と感じることが多かったのですが、最安値が出るのには納得ですし、応援したい気持ちです。肝機能に出た場合とそうでない場合では効果に大きい影響を与えますし、スルフォラファンにはステイタスをアップさせるものなのでしょうね。悪いは主に若者が熱狂的に参加するイベントで、偏見があるとはいえプロテインで本人その人がファンと
先日行われた Twitter の開発者向けイベント「Chirp」にて、 @Anywhere という新 API が公開されました。自分のサイトに、 JavaScript のみでユーザー情報の表示やつぶやきの投稿、ユーザー認証などの機能を実装できる、とても興味深い API です。 この @Anywhere は使い方も非常に手軽で、こちらのページでサイトを登録すれば、あとは「Getting Started with @Anywhere」にある JavaScript をページに挿入するだけで利用できます。しかし、当然ですが説明は英語ですので、日本人には少しとっつきづらい面もあります。こんな有用な API が日本で普及しないのは大きな損失、ということで前述のページを日本語に翻訳してみました。 勢いで翻訳したので表現はかなり適当ですが、まあ無いよりはましかと思います(笑)。 @Anywhere を利用
Twitterが分散フレームワーク「Gizzard」公開! Scalaで書かれたShardingを実現するミドルウェア Twitterは独自に開発した分散フレームワークの「Gizzard」をオープンソースとして公開しました。GizzardはScalaで書かれたJavaVM上で動作するミドルウェアで、PHPやRubyといったWebアプリケーションからの要求を自動的にデータベースに分散することで、大規模で可用性の高い分散データベースを容易に実現するためのものです。 Gizzard:フォルトトレラントな分散データベースを実現 The Twitter Engineering Blog: Introducing Gizzard, a framework for creating distributed datastores Twitterのブログにポストされた「Introducing Gizzard
この記事以降 Twitter API の仕様が変わっており、このままでは正しく機能しない場合があると思います。近いうちに今のやり方を書くので、それまで参考程度にご覧ください。 Twitter API の OAuth でひととおりやってみた。 忘れないようにメモ。 大雑把な流れ Twitter にアプリケーションを登録する。 Consumer Key と Consumer secret を取得する。 リクエストトークンを取得する。 認証用 URL を取得する。 ユーザーから承認を受ける(bot の場合は自分でやる)。 アクセストークンを取得する。 API にアクセスする。 以下、やった作業の手順です。 事前準備 HTTP_OAuth を使えるようにする OAuth の通信部分そのものは PEAR の HTTP_OAuth を使うことにしたので これをインストールする。 一番めんどくさい部分を
印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます Twitterを新たに始める場合、フォローする価値のある人々を見つけ出すという重要かつ困難な作業が待ち受けている。友人がフォローしている人々のリストを見てみたり、他のユーザとのやり取りの中で話題に上った興味深い人物をチェックしたり、Twitterのアドレスを公開している個人や企業を洗い出すこともできる。しかし、優れたリストを作り上げるには数カ月かかることもある。そこで本記事では、ITプロフェッショナルがTwitterで良いスタートを切るために必要となるであろう情報を提供することにした。 以下は、Twitterで積極的につぶやいているIT専門家100人のリストである。このリストにはITメディア関連のプロフェッショナルや専門家が数多く含まれ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く