第4回Jenkins勉強会 http://kokucheese.com/event/index/16114/ で発表した資料です。Read less
2011年10月1日のminami.rbの第9回勉強会で発表したgitのtipsのプレゼン資料です。Read less
2. 全面広告 「ユーザビリティ エンジニアリング(第2版)」 1章 ユーザ中心設計概論 2章 インタビュー法 3章 インタビューの実践 4章 データ分析法 5章 発想法 6章 プロトタイプ 7章 ユーザビリティ評価法 8章 ユーザテスト 9章 ユーザテストの準備 10章 ユーザテストの実施 11章 分析と再設計 12章 ユーザ中心設計活動 *無料サンプル版(第2章全文) http://www.slideshare.net/barrelbook/ss‐26183115 全面広告 3. • • • • • プロダクトオーナー(PO)は、 製品の明確なビジョンを持つ。 プロジェクトの成功に全面的に責任を 持つ。 変化に適応して選択を行う。 中間成果を受け入れるか、開発チー ムに差し戻すか決定する。 いつ、どんな内容の製品をリリースす るか決定する。 早く偉大なPO になりたい~ アジャイルマニ
The document introduces CandyCane, an open source bug tracking system built with PHP and CakePHP. It provides an overview of CandyCane's features such as issue tracking, wiki, permissions, and integration with version control systems. The document also discusses CandyCane's history since 2009 and future plans to upgrade to CakePHP 2 and implement additional features with help from the community.Re
12. 音声入力用のSDKも入れると…音声入力の実装もされていますMicrosoft Speech Platform を入れてください。Microsoft Speech Platform Runtime, version 10.2 (x86 edition) Microsoft Kinect Speech Platform (US-English version) Microsoft Speech Platform - Software Development Kit, version 10.2 (x86 edition) http://d.hatena.ne.jp/astrobot/20110621/1308718324声で操作出来ます
This document provides an overview of the Kinect SDK, including hardware requirements, the development environment, image and depth APIs, skeletal tracking, audio processing, speech recognition, and sample applications. It discusses the Kinect sensor's depth sensors, RGB camera, and microphone array, and how to access depth data, skeletal data, and audio streams from the Kinect in code. It also in
This document discusses using the Kinect sensor with Node.js. It describes connecting the Kinect to Node.js using the Audio Data API and Socket.IO for real-time data streaming. Code examples are provided for an Express server to handle requests and websockets, and using TCP/IP to receive Kinect sensor data and broadcast it over websockets.Read less
This document describes an "Auto Chasing Turtle" robot project that uses a Kinect sensor to detect human faces and autonomously follow those faces. The robot consists of a KONDO Animal 01 robot base controlled by a BeagleBoard-xM running openFrameworks and ofxDroidKinect software. The Kinect provides RGB and depth camera data to detect faces and calculate the robot's course and distance to the tar
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く