前回と前々回で、Android nativeの関数をUnityから呼び出す方法について紹介してきました。 Android StudioでUnity向けmoduleを作る方法 - CrossRoad Android Studioで作ったmoduleをUnityから呼ぶ方法 - CrossRoad この方法によりJavaで書いたコードをUnityで呼べるのは間違いありません。しかし、2回目で書いたように、実際に呼びたいAndroidの側のコードはもっと複雑であることが多く、この方法だけではうまくいかないことがあります。 たとえば、下記の記事で試している音声認識のソースコード(Android Studio)をUnityで使おうとすると、色々なエラーがでてしまい、使うことができません。 【2016/11/27更新】【Android】Bing Speech APIを使う手順とトラブル対応法をまとめま
AndroidやiPhoneの通知機能やらなにやらを使いたいときはよくあります。 アセット使えば手っ取り早いんですけど、かゆいところに届かないところもあるので、自前で用意する方法をちょろっと書いてみます。 今回はAndroidです。 Android開発やったことない人には、ちんぷんかんぷんかと思いますのでご注意。 目次 AndroidStudioでプラグインを作る 新規プロジェクトを作る ライブラリ用モジュールの作成 Unityからアクセスするクラスを作成する ライブラリのビルド ライブラリの拡張子について Unityからプラグインを呼び出す aarを配置する プラグインを呼び出す ビルドして端末にインストール プラグインからUnityの関数を呼び出す 注意するエラー minSdkVersionがあってない なんか知らんが動かん iPhoneは? AndroidStudioでプラグインを作
概要 UnityとAndroidを連携するには色々やり方あると思いますが、AndroidStudioを使ってaarを作成し連携させます。 色々調べてたらEclipseとjarを使った連携をよく見かけましたが、ADTがもう開発終わってしまうので今後はAndroidStudioを使うべきでしょう。(An update on Eclipse Android Developer Tools | Android Developers Blog) このやり方は探しても見つからなかったので、手順的なものを簡単にまとめておきます。 環境 OS X Yosemite Unity 5.0.3 Android Studio 1.2 Unityプロジェクト準備 普通に作ります。 パッケージ名とminバージョン等を設定しておきます。 ここでは例としてパッケージ名はcom.sample.samplegameとしました
iPhone、Androidで端末を向けた方向に合わせてカメラを動かすインタフェースをUnityで実装する方法をまとめてみます。ARアプリだと実際の方角に合わせてコンテンツを表示させたいケースも多いので、ジャイロだけでなくコンパスを使って適切にカメラ方向を合わせることを目指します。 まあ割と常識レベルの話かもしれませんが、いざ実装しようとして「あれ?どうするんだっけ?」となったり思いがけない罠に嵌ったりすることがあったので、備忘録がてら。 ジャイロのみによる実装 ではまずジャイロだけで見回し操作をしてみましょう。 Input.gyro.attitudeで得られる値を少し加工してカメラのtransform.rotationに入れてやればよいです。Input.gyro.enabledをtrueにするのも忘れずに。 以下のようなスクリプトをカメラに付けることで実現できます。 using Unit
Unity アプリがAndroid実機でクラッシュする問題を調査した時のアレコレをメモる。 monitorでログを見る android 実機と MacをUSBケーブルで繋げる。 android sdk をインストールし、tools/monitor コマンドを実行すると android 実機上で吐かれたログを観れるようになる。 android のメモリ使用状況をチェック android sdk の adb コマンドを使う。 adb shell dumpsys meminfoを実行すると、下記のようなメモリ使用状況確認できる。 Total RAM: 1850148 kB (status normal) Free RAM: 775573 kB (170057 cached pss + 465736 cached kernel + 139780 free) Used RAM: 1181385 kB
はじめに Mogura VR さん経由で ASUS 社の ZenFone AR のエンジニアリングサンプル品をお借りすることが出来たので色々調べてみました。Tango についての一般的な事柄や ZenFone AR そのものについては Mogura VR さんの方に寄稿いたしましたので、併せてお読みいただけると嬉しいです。 www.moguravr.com 本エントリでは寄稿した記事の補足や向こうには書かなかったコードと紐付けた紹介、推測や妄想も交えてまとめていきたいと思います。こうしたらアプリが作れるよ、という解説ではなく、あくまで概念や世界観の理解の方がメインです。なお「はじめました」というタイトルをつけたのですが、だいぶ前に返却してしまったので、続きはまた発売後に購入出来たら書きます...。 追記(2017/06/23) 本日より発売されました! ASUS ZenFone AR SI
はじめに 環境 Unity Cloud Build とは 設定の流れ ソースコードをGitリポジトリに保存 Unity Cloud Buildにアプリケーションを登録 Androidアプリ専用項目の設定 iOSアプリ専用項目の設定 おわりに はじめに 先月Androidアプリを作ったときにUnity Cloud Buildを使ってみました。 とっても便利だったので設定方法をまとめておきます。 環境 PC:Mac OS X Yosemite 10.10.5 XCode:6.4 ビルド対象プラットフォーム:iOS、Android、WebPlayer Unity Cloud Build とは Unity Cloud BuildはUnity公式のクラウドサービスです。 設定しておくと下記作業を自動化できます。 自動でビルド GitやSVNにコミットすると自動的にソースコードを引き取り、ビルドを開始
アプリが重い!!たまらんもっさりする!! Unity製のアプリがもっさりするのは原因がいろいろあるのですが(帯域とかビルド方法とかシェーダーとかメモリとか云々) エンジニアさんがいくら努力してもデザイナーが気をつけていないと 結局なんだかんだいちばん容量食ってたのは画像、とかだったりします。 画像の書き出し方法・減量方法についていろいろ調べたものをまとめました。 周知の通りUnityは基本的にPhotoshpで画像を減量して読み込んでも軽くなりません。 いままでのブラウザゲームの減色・軽量化のノウハウが使えないのでまいっちゃってます。 基本は非圧縮のPNGを読み込んでUnity側で圧縮をかけることになります。 ただそんなにきれいに圧縮してくれるわけではないので場合によっては汚く表示されます。特にグラデーションはマッハバンド(しましま)が出て目立つレベルに劣化します。 OptpixでRGBA
Unity 5.3で気になった項目まとめ Unity 5.3で新しく追加・変化する機能についてです。 個人的に気になる順番で紹介します。 Unity 5.3で気になった項目まとめ プラットフォーム個別ダウンロード マルチシーンエディティングとその周辺 LZ4圧縮のAssetBundle マルチディスプレイ 非同期なテクスチャのアップロード パーティクルの改善とその周辺 2D周りとその周辺 幾つかのiOS9機能の対応 パフォーマンスについて色々 OpenGL Core SSRや新しいイメージエフェクト リアルタイムGIの解像度をシーンビューで確認可能に リアルタイムGIのベイクが高速化 カスタムコルーチン UnityWebRequestのモバイル対応 JSONの公式サポート Web GLからPreviewが取れた IAP(アプリ内課金)の追加 AndroidのHide Status Barが
Unity4.5から、USB経由でプロファイラーを使用できるようになった(iOS)ので、使い方をまとめた。 プロファイラーをiOS端末とつなくことで、実機でゲームを動かす際に、どのタイミングでCPUに負荷がかかるか、メモリが使用されるのかといったことが、簡単に分かるようになる。 ちなみに、このプロファイラーを使うにはUnity Proが必要です。 iOS端末とProfilerをつなぐ File > BuildSettingで、Development BuildとAutoconnect Profilerのチェックボックスを有効にして、ビルドする 1.で書きだしたXcodeProjectをXcodeで開き、ビルドしてiOS端末にインストールする Window > Profilerでプロファイラーを起動して、Active ProfilerをiOS profiler over USBに設定する ロ
Unityはじめました。 会社でUnityを触りはじめました。 マルチプラットフォーム開発で夢が広がりますね。 ただUnityさん、ビルドが超面倒臭い。 Android向け、iOS向けにそれぞれビルドはもちろん、 確認のために実機一台一台にインストール・・・。 日が暮れます。家に帰るとリス寝ちゃってます。 それは困る。 ビルドから端末へのインストールまで自動化してみたので そのメモを書いておきます。 みんな大好きJenkins氏 Jenkinsさん全部やってくれないかなー。 とぐーぐる先生に聞いてみた結果、 Unity3D - Jenkinsさんでビルドしてスマホでの確認を楽ちんに - Qiita [キータ] 【研究課題レポート抜粋】Jenkins+Unityで構築するスマフォアプリビルドサーバー|サイバーエージェント 公式エンジニアブログ なんかできそう。 とりあえずmacにJenkin
この記事でのバージョン Unity 4.6.3f1 Lobi 5.4.6 Lobiとは まずLobi(旧ナカマップ)とは、カヤックが運営するスマホゲームのコミニティサービスです。 このLobi、なんと個人開発のアプリでも無料で導入出来ます! 重要なのがLobiを導入する事で何が出来るかという事ですが、大きく分けて二つの機能があります。 - ランキング機能 - プレイ動画の撮影、シェア どちらもゲームには欲しい機能……! 特にランキングはiOS、Android両対応が作れる優れもの! しかもランキングのデータをjsonで取得出来るため、 やろうと思えばオリジナルのランキング画面を作る事も出来ます! ただ、この方法でやるとLobi側に利点が無いような……? ちなみにプレイ動画は以下のような感じで、 音声や内側カメラの映像を入れ実況動画にする事も出来ます。 以前はアプリ内でユーザ同士が交流出来る
イベントでインスタレーションをした時に、来場者が気軽に参加できるようにスマホのブラウザで操作できる仕組みを勉強しとこうかなと。 こんなイメージ。 スマホからのデータを受け取るにはOSCもありますね。 でもアプリじゃないとたぶんダメだし、制御用PCと同じwifiに入ってもらわないといけないし、お客さんがわざわざそこまでやってくれるような規模のものならいいけど、気軽に参加できるものでは無いです。 で、今まで気になってたけど手を出してなかったnode.js+socket.ioをやってみることに。 サーバーはどこが主流なのか分からないけど、とりあえずherokuで。 1.ブラウザのみでsocket.ioをテスト そのへんで見つけたサンプルを動かす→動いた! 2.Unityでsocket.ioを試す サーバーサイドそのままで、Unityから接続するテスト。 検索するとsocket.io用のライブラリ
本投稿はMecanim Humanoidの背後にある技術について説明する。動作の仕組み、長所と短所、どうして今のような選択がおこなわれたのか、さらにベストの状態を得るためのいくつかのヒントについてお話しよう。Mecanimに関する一般的な設定と手順については、Mecanim Animation Systemを参照してほしい。 Humanoidリグとマッスルスペース Mecanim Humanoidリグおよびマッスルスペースは、人型のボディやアニメーションを表現するために使われる、標準的なスケルトンノード階層とジオメトリ変形を実現する代替ソリューションだ。 Humanoidリグとは、スケルトンノード階層のトップにおけるデスクリプションであり、人型ボーンのセットを定義すると同時に、各々のボーンに対応するマッスルリファレンスを作成する。マッスルリファレンスとは、本質的には各軸ごとに一定の範囲と符
Facebookの「Unityユーザー助け合い所」で「タッチした位置にオブジェクトを移動するにはどうすれば?」という質問が挙っていました。 この処理って意外と難しい様な気がしたので自分でも作ってみる事にしました。質問ではタッチ(iPhoneやAndroid向け)の話でしたがテストがメンドクサイのでマウスの位置で実装しました。マウスの位置で指定している部分をタッチの場合にはタッチのデータに置き換えるだけでiPhoneやAndroidでも動作するかと思います。 ソースコードはこちらで配布しています。 仕組みの概要 今回のお題、背景に地面など何らかのオブジェクトが有る場合には簡単に作成出来ますが何も無い場合には意外と実装がメンドクサイのでは?と思いました。 ゴリゴリ計算すればもちろんできるでしょうが折角Unity使っているのだし簡単にやりたい所です。 と言う事で今回はカメラの前にパネルを一枚引い
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く