サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
アメリカ大統領選
www.myu.ac.jp/~xkozima
ここではインタラクティブアートへの応用をめざして,2次元物理シミュレータである ofxBox2d の概要を紹介します.また,ofxOpenNI と ofxOpenCv を使った Kinect との連携についても扱います. 注意:準備作業が抜けている人をよく見かけます.Xcode 5.1.1 と Commandline Tools を正しくインストールしてください.どちらも Apple の Developer サイトから無料で入手できます.openFrameworks は最新版をダウンロードしてください.ここでは 0.8.4 の利用を想定しています. ofxBox2d は,多数の平面図形(丸・四角など)の相互作用をシミュレートするアドオンです.たとえば下図の例では,マウスポインタの位置に丸や四角といった図形を次々と生成し,仮想的な重力によって地面(画面下端)に落下・堆積させています.2次元平
www.myu.ac.jp
「出会い」という言葉で語ることの出来るもの/ことはたくさんありますが、その直接性と時空を超えた範囲の広さにおいて本(論文なども含めてここでは本と呼んでおきます)ほど「出会う」と言うにふさわしいものはないのではないでしょうか。 宮城大学学術情報センターでは、図書館をディスカバリー・コモンズ(出会いと発見のための場)と位置づけて、本だけでなく、人やものを含む活きた資料を幅広く収集・提供することで学びのための「出会い」を組織しています。 その際忘れてはならないのは、大学図書館は学生のみならず教職員も教育・研究・地域貢献のために使う場所であり(オープンサイエンスという科学のあり方にも関わる高度な話題にも取り組んでいます)、学生と教職員もまた互いに出会いながら共に作りあげていく場所だ、ということです。 是非図書館を利用し、そして何より「参加」してください。お待ちしています。 学術情報センター センタ
キャラクタ端末上で動作する簡単なプログラムから始めます.パソコン(Mac・Windows など)から SSH で Raspberry Pi にログインし,Raspberry Pi 上で vncserver を立ち上げてください.あとは logout して構いません. mac$ ssh pi@192.168.0.199 pi@192.168.0.199's password: ******** Linux raspberrypi 3.6.11+ #456 PREEMPT Mon May 20 17:42:15 BST 2013 armv6l ... raspberrypi:~$ vncserver :1 -geometry 1024x768 -depth 24 raspberrypi:~$ logout パソコン上で VNC クライアントを起動し,Raspberry Pi のデスクトップを画
openFrameworks を利用して,Windows や Mac のデスクトップ上で動作するアプリを開発します.ここでは,Windows 上での開発環境(Visual Studio 2012 Express ベース)の導入方法,および Mac 上での開発環境(Xcode ベース)の導入方法について説明します.使用機材に合わせて,開発環境を導入してください.Linux(PC や Raspberry Pi など)からの利用も可能です.
シングルボードコンピュータ Raspberry Pi を活用して,Unix (Linux) が動作する小型パソコンをカスタマイズします.この応用編では,ハードウェア入出力の基礎を学び,またカラー液晶ディスプレーの接続に挑戦します. Raspberry Pi の P1 および P5 端子群(上の写真で矢印の先)には,外部の電子回路と信号をやりとりするための入出力端子(+電源端子)が並んでいます.右図は,P1 端子群のピン配列,P5 端子群のピン配列を表したものです.いずれも1番ピンは,Raspberry Pi 基板上に白いシルク印刷で四角いマークがついています.(P5 端子群は基板裏側から見てください.) これら端子は,シリアル通信などの特定の機能をもつものもありますが,基本的にすべてが汎用ディジタル入出力端子(GPIO: General Purpose I/O)で,たとえば LED を点滅
シングルボードコンピュータ Raspberry Pi を活用して,Unix (Linux) が動作する小型パソコンを作ります.この準備編では,Raspberry Pi を無線でリモートログインできるパソコンに仕立てます.(入門編では C 言語 + GTK によるアプリ開発,応用編ではカラー液晶ディスプレーの接続やケースの設計・製作などにも取り組みます.) 必要な素材は,Raspberry Pi (Type B) 本体のほか,SD メモリカード(SDHC Class 10 で 8〜32GB 程度)と電源供給用の USB ケーブル(A〜micro-B),そして無線 LAN の USB アダプタで.全部で 5,000円位で揃うでしょう.また設定作業用として HDMI 接続またはコンポジット信号接続で使えるディスプレーとケーブル,有線 LAN の接続ケーブル,USB 接続のキーボード,USB 接続
Miyagino(みやぎーの)は,ブレットボード上に構築された Arduino 準拠の組込みコンピュータです.ブレッドボードの右半分に,マイクロプロセッサや USB-シリアル変換モジュールなどを配置してあります,空いている左半分は,ユーザが機能拡張に利用することができます.モータ,ライト,スイッチ,センサなどを接続することで,光・音・動きを使ったインタラクティブな情報ガジェットを試作することができます. 大きさ:幅 165mm,奥行 55mm,高さ 23mm.質量:約 90g.(USB ケーブルや電池は除く) プロセッサ:Atmel ATmega328P(16MHz 動作;Flash 32kB・RAM 2kB) PC とのインタフェース:USB-mini(秋月電子の USB-シリアル変換モジュール AE-UM232R を利用.Mac・Linux・Windows 対応の FTDI VCP D
openFrameworks を利用して,Windows や Mac のデスクトップ上で動作するアプリを開発します.グラフィクスの操作や音の入出力,マウスやキーボード入力の扱いなど,インタラクティブなアプリケーションを制作するための基礎技術をマスターしていきましょう.ここでは記述を簡潔にするために Windows 上でのアプリ開発を想定して説明していきます.
openFrameworks を利用して,iPhone / iPad / iPod touch のアプリを開発します.従来は,Objective-C から iOS 独自の API を利用する方法を習得する必要がありましたが,openFrameworks を利用することで,グラフィクス処理・音処理などを,一般的なデスクトップ(Mac OS や Windows など)のアプリケーションと同じ方法で,C++ を使って iOS アプリを開発することができます. iOS 用の openFrameworks を利用するには,Mac + Xcode が必要となります.ここでは,既に,Mac 上での開発環境が準備できているものとして,iOS アプリ開発を解説していきます.必要に応じて,「openFrameworks の ios setup guide」を参照してください.利用する openFramewor
ここでは,より高度なアドオンの扱いかたを,ofxOpenCV と ofxOpenNI を題材として学んでいきます.ofxOpenCV は openFrameworks に標準添付された画像処理用のアドオンです.ofxOpenNI は(前回に取り上げた ofxTrueTypeFontUC と同じように)外部から入手(ダウンロード)した Kinect 用のアドオンです.これらアドオンの利用は(とくに Windows 上の VC++ からは)手順が複雑ですが,それぞれのアドオンに添付された例(example)をコピーし,改造することで,大抵のアプリケーションを作成することができます.
スケーラブルなフォントを表示するには,ofTrueTypeFont クラスが便利です.英数字(いわゆる ASCII 文字)しか表示できませんが,比較的簡単に TrueType フォントを,しかもアンチエイリアシング(ギザギザ感を低減させる処理)を加えて,画面上に描画することができます. まず emptyExampe をコピーして,dojoEample13 をつくります.data/bin フォルダに利用したいフォント(ttf, ttc, otf などの拡張子をもつフォントファイル)を入れておきます.たとえば,Windows であれば,コンピュータ > ローカルディスク (C:) > Windows > Fonts の中から,Arial を dojoExample13/bin/data にコピーします.すると,arial.ttf などいくつかのフォントファイルが作られます.Mac OS であれ
ここでは,より音・映像メディアのより応用的な扱いかたを,実例をとおして,解説していきます.下のリンクから sozai2.zip をダウンロードし,必要に応じて,プロジェクトごとの bin/data フォルダにコピーしてください. このページで利用するおもな素材:sozai2.zip
静止画について,ファイルからの読み込み,画面への表示,ファイルへの保存などを可能にするのが ofImage クラスです.ここでは,この ofImage クラスの使い方を説明します. 画像ファイル(png や jpg など)をそのまま画面に表示します.いつものように,emptyExample をコピーし,dojoExample7 に名前を変更します.その中にある bin > data フォルダに,ofSozai1.zip から earth.jpg をコピーしてください.この JPEG ファイルは 750x750 の大きさをもつ地球の画像です.(bin/data フォルダがない場合は,bin フォルダとその中に data フォルダを新規作成してください.)
まず,Pd (Pd-extended) から音が正しく出ることを確認しましょう.Media メニューから Test Audio and MIDI を選択してください.(参考図) 下のようなウィンドウ(Mac OS X の場合)が開くはずです. まず,このウィンドウ(じつは Pd パッチ)の左上側にある TEST TONES から,左側の選択ボタン(これは [vradio] というオブジェクトです)を 60 あるいは80 [db] にセットします.PC のスピーカから音(正弦波)が聞こえましたか? PC の音量を調整してみてください. 音が聞こえたら,数値ボックス pitch を操作(マウスでドラッグ)して,音の高さを変えてみてください.ガザつきなく,きれいな音が出ているようなら,音を出すだめの準備は完了です. まれに Pd から音が出ない,あるいは音質が悪い場合があるようです.まずは PC
ここでは openFrameworks による2次元グラフィクスについて解説します.グラフィクスの初歩は「入門編」で扱いましたので,より高度なグラフィクス操作について説明していきます. デフォルトの座標系は,下図(左)に示すように,iPhone を縦に置いた状態で,画面に左上を原点 (0, 0) とし,右下を (319, 479) とする直交座標系です.横(X 軸)方向の幅が 320,縦(Y 軸)方向の高さが 480 となります.なお,これらは論理的な(プログラミング上の)な大きさで,実際のピクセル数は(iPhone の種類に応じて)320×480 ピクセルあるいは 640×960 ピクセルとなります. このデフォルト座標系が使いづらい場合は,たとえば OpenGL や数学で使う標準的な座標系に変更することができます.たとえば下にあげたプログラムのように,testApp::draw() の
Pd (Pure Data) から USB ケーブル経由で Miyagino を遠隔制御します.Miyagino の各出力端子の状態(LED のオン・オフなど)を制御したり,各入力端子の状態(スイッチのオン・オフなど)を読み取ったりできます.Pd については「音・映像メディア」を参照してください. Pduino というパッチをインストールすることで,Pd からは Miyagino(一般には Arduino)を [arduino] というオブジェクトとして扱えるようになります. ダウンロード:http://at.or.at/hans/pd/objects.html 上記のウェブページから Pduino-0.5beta8.zip をダウンロードし,展開したフォルダを適当な場所に置き,Pd からのサーチパスを通しておいてください.サーチパスを設定するには,Windows 版・Linux 版では,
www.myu.ac.jp/~togashi
Pd (Pure Data) は Miller Puckette が開発したデータフロー型プログラミングによるマルチメディア制作環境です.演算機能をもった「オブジェクト」を相互に接続することで,さまざまなデータ(数値・音・映像など)に対する処理の流れ(フロー)を「パッチ」とよばれる図式として視覚的・対話的に構成していきます. たとえば,下のパッチはランダムな音楽(らしきもの)を生成するものです.上側に置かれたメトロノームから 100ms ごとにタイミング信号が下に流れていき,それに合わせてランダムな音階(鍵盤の番号)が生成され,その音階にあたる周波数の正弦波(の波形データ)に変換された後,下側に置かれた音声アウトプット(左右のスピーカ)に流れていきます.(細かい部分はまだ分からなくて結構です.) Pd のパッチは,フローチャート(仕事の手順を図示したもの)に似ていますが,むしろ工場の生産ラ
Pd (Pure Data) は,音・映像・ロボットなどを使って情報メディアを制作するためのプログラミング環境です.その使い方をチュートリアルにまとめています.Pd を使った情報メディア制作に興味がある方は,まず「Pure Data 入門」をご覧ください.
Pd + GEM は,3次元グラフィクスを生成するだけでなく,静止画・動画(カメラやファイルから読み込まれた画像)に対するさまざまな画像処理 (image processing) を行なうことができます.たとえば,描画オブジェクトの表面に画像を貼り付けること(テクスチャマッピング)にはじまり,色やサイズの変換や,複数の画像を重ね合わせること,シルエット化や輪郭抽出のためのフィルタを適用することなどが可能です. ここでは Pd-extended に標準で組み込まれている Pix モジュール(名前が pix_ で始まるオブジェクト群)を中心に,Pd による画像処理の基本を解説します.また,業界標準の画像処理ライブラリである OpenCV の諸機能(顔検出など)を利用する方法についても解説します. このページで紹介するおもなパッチ:pack4.zip Pix モジュールに含まれるオブジェクトの一
ここでは Miyagino を C (C++) でプログラムする方法を解説します.プロセッサが直接実行できるコードにコンパイルし,Miyagino にアップロードすることで,PC との接続がなくても(電池などを電源とすることで)Miyagino 単体で動作するアプリケーションを制作することができます. Arduino 開発環境を起動すると,まず空のスケッチ(名前は今日の日付から生成)が開きます.スケッチとは Arduino のソースプログラムのことです.ここに setup() という関数と,loop() という関数を作ることで,Miyagino で動作するプログラムを作成します.下図(クリックして拡大)は,"A" のモールス符号を 13番の LED の明滅パターンで繰り返すものです. 関数 setup() はプログラム起動直後に一度だけ呼び出され,その後,関数 loop() が繰り返し呼び
Miyagino(「みやぎーの」と発音)は,組込みコンピュータの基礎を学び,さまざまな応用を可能にするための Arduino クローンです.ブレッドボード上に,マイクロプロセッサ(Atmel ATmega328P)や USB-シリアル変換モジュール,いくつかの電子部品を組み込んで自作します.1台あたり 2000円程度で製作可能です.USB-シリアル変換モジュールなし(プログラム焼き込み後にスタンドアロン動作)であれば,1000円程度です.(ブートローダの書き込みには別途 AVRISP mkII が必要ですが,宮城大学関係者であれば小嶋研究室のものを使うことができます.) 自分の手で作るには「Miyagino を作る」のページへ Pd (Pure Data) から制御するには「Miyagino + Pd」のページへ C でプログラミングするには「Miyagino + C」のページへ モータや
CareBots プロジェクトでは,子どものコミュニケーション発達を解明するためにも,そのモデルを検証・評価するためにも,ロボットが大きな役割を果しています.ロボット上に子どものコミュニケーション能力を〈再現〉すること,ロボットを使って子どものコミュニケーション行動を〈観察〉すること,これら相補的なアプローチをラセン状に往復することで,人間のコミュニケーション能力がどこから来るのか・どのように発達するのかを解き明かしたいと考えています. 現在までに〈子ども型ロボット Infanoid〉と〈ぬいぐるみロボット Keepon〉を開発しました.これらロボットの開発コンセプトは『子どもから自発的なコミュニケーション行動を引きだす〈身体〉』です.このコンセプトを具現化した Infanoid・Keepon は,とてもユニークで存在感のあるロボットだといえます. また,これらロボットの共通部品として開発
このページでは,人の視線を計測する装置(Tobii X120)と付属ソフトウェア(Tobii Studio)の基本的な使い方を説明します.大学・大学院でのみなさんの研究に役立ててください.参考までに,視線計測実験の全体的な流れを疑似コードで書いておきます.このページでの説明もこの流れに沿って進めます. 視線計測実験 { Tobii の準備; 提示刺激の編集; Tobii の位置決め; for every 被験者 { キャリブレーション; 視線の計測と記録; } 計測結果の確認; } Tobii は非装着型の視線計測システムです.ここでその使用法を解説する Tobii X120 は,最高 120Hz の周期で,被験者の視線を約 0.5° の精度で実時間推定することができます.腕を伸ばして親指と人指し指で 5mm のギャップをつくったとき,それが約 0.5° の角度に相当します.非装着型ですか
ServletとJSPはそれぞれ得意な部分と不得意な部分があるため、この二つを共存させたいという場合がよくあります。例えば、データの処理をServletで記述して、表示をJSPで記述するという具合です。ここでは、そのようなときに使えるメソッドについて紹介します。 ServletからJSPへの引継ぎ Servletでデータを処理し、JSPで表示用HTMLを作りたいというのはよくあることです。そこで、Servletでは、「フォワード」という処理を行なうことが可能です。この処理を行なうことで、JSPファイルを実行することが可能です。 JSPへのフォワードは、次の手順で行ないます。 RequestDispatcherの作成 // requestは、HttpServletRequestのインスタンス // hello.jspに引き継ぐ RequestDispatcher dispathcer =
ぬいぐるみロボット Keepon は,ヒトとオモチャの中間的な存在をめざしたユニークなロボットです.「ゆきダルマ」とも「ひよこ」とも形容される黄色い身体(シリコンゴム製)に,眼(ビデオカメラ)が2つ,鼻(じつはマイクロフォン)が1つという,とてもシンプルな外観をもっています. Keepon は4つの自由度(動作軸)をもちます.まず,pan(くびふり=水平回転)と tilt(うなずき=前後屈)によって,視線(注意)の方向を制御します.Keepon が何かに意識を向けているように見えるでしょう.また,side(くびかしげ=左右傾動)と pon(ポンポン=上下伸縮)によって,情動(楽しさ・驚きなど)を表出します.注意を向けた対象に,Keepon が何らかの〈心の状態〉をもち,それを表現しているように見えるでしょう. 上図のように,tilt と side の自由度は,上下2組のジンバル(2つの直交
8年半もお世話になった宮城大学を 3月31日に退職し,4月1日から東北大学で研究・教育等に従事することになりました.新しい所属は,東北大学 大学院 教育情報学研究部です.(2017年4月1日) 東北大学 大学院 教育情報学研究部 教授 小嶋秀樹は認知科学・人工知能・ロボティクスの研究者です.ヒトのもつさまざまな能力のなかでも〈他者に対する想像力〉に興味をもっています.この想像力とは,ヒト特有の〈コミュニケーション能力〉の本質(コア)にほかなりません.この能力が,どこから来るのか・どのように発達するのかを解き明かし,ロボットのような人工システムに〈他者に対する想像力〉を与えることをめざします.いつの日か,ヒトの気持ち・痛みがわかるロボット,ヒトと約束できるロボット,コミュニティのなかでヒトと共生できるロボットを実現したいと考えています. キーワード: ヒューマン=ロボット=コミュニケーション
実際にWEBアプリケーションを作成する場合、ServletとJSPをどのように使い分けるのか、また、データベース処理などはどのクラスに記述するのかなどの問題が出てきます。このようなときに使われる便利な設計パターンとして、MVCモデルについて解説します。 MVCモデルとは MVCモデルとはModel-View-Controllerモデルの略で、アプリケーションを作成する際によく利用される抽象化のモデルです。MVCそれぞれの意味は、 Model モデル、何らかのデータとそのデータを操作するためのメソッドを提供する役割を持つ。 View ビュー、モデルのデータを加工、出力し、ユーザに見せる役割を持つ。 Controller コントローラ、ボタンを押すなどのユーザからの入力を受け取り、それにしたがってモデルを操作したりする。 そして、これらの要素が以下のように関わっています。 アプリケーショ
次のページ
このページを最初にブックマークしてみませんか?
『公立大学法人 宮城大学 - MYU』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く