目次 目次 はじめに Dynamic Window Approachとは、 1. Dynamic WIndowの計算 2. 評価関数の最適化 DWAの利点と欠点 利点 欠点 DWAのMATLABサンプルプログラム Pythonサンプルプログラム その他のロボティクスアルゴリズムのサンプルコード 参考資料 MyEnigma Supporters はじめに 以前、自律移動ロボットのPath Planningアルゴリズムとして、 ダイクストラ法や myenigma.hatenablog.com A*アルゴリズム myenigma.hatenablog.com を紹介しましたが、これらのアルゴリズムは一般的に、 Global Path Planinngというアルゴリズムに分類されます。 このGlobal Path Planningは、 スタート地点からゴールまでのパスを計算する方法ですが、 いくつ
#!/usr/bin/env python import time print "hello" for x in range(0,60): print x time.sleep(1)
サーバー側 サーバー側のプログラムは、指定したファイルパスにソケットファイルを作ってクライアント側からの接続を待ち受けます。 server.py この例では、 /tmp/myapp.sock というパスにソケットファイルを作成します。クライアント側から送信されたデータを標準出力に出力し、同じ内容を送り返します。 import os import sys import socket class Server: def __init__(self, socket_path): self.socket_path = socket_path def start(self): s = self.socket = socket.socket(socket.AF_UNIX, socket.SOCK_STREAM) s.bind(self.socket_path) s.listen(1) try: whi
About OR-Tools OR-Tools is an open source software suite for optimization, tuned for tackling the world's toughest problems in vehicle routing, flows, integer and linear programming, and constraint programming. After modeling your problem in the programming language of your choice, you can use any of a half dozen solvers to solve it: commercial solvers such as Gurobi or CPLEX, or open-source solve
日本語の文字列の操作について。 英字に比べて非常に扱いにくい印象です。 文字列をソートしたり、ひらがな・カタカナ判定、ひらがな・カタカナ変換などを作ってみました。 # coding: utf-8 hiragana = "ぁあぃいぅうぇえぉおかがきぎくぐけげこごさざしじすずせぜそぞただちぢっつづてでとどなにぬねのはばぱひびぴふぶぷへべぺほぼぽまみむめもゃやゅゆょよらりるれろゎわゐゑをん" katakana = "ァアィイゥウェエォオカガキギクグケゲコゴサザシジスズセゼソゾタダチヂッツヅテデトドナニヌネノハバパヒビピフブプヘベペホボポマミムメモャヤュユョヨラリルレロヮワヰヱヲンヴ" hankana = "" suuji = "01234567890123456789" # 日本語文字列のソート def sort_str(string, reverse=False): return "".joi
Pythonでhmac(HMAC,Hash-based Message Authentication Code)を求めるサンプルプログラムです。ここでは、md5 sha1 sha224 sha256 sha384 sha512などのハッシュ関数を利用します。 読み方 hmac えいちまっく 概要 HMACは、暗号ハッシュ関数を使用して、メッセージ認証を行う仕組みです。 ハッシュ関数と秘密鍵を組み合わせて使用します。 秘密鍵を変更するとメッセージが同じであっても、異なるハッシュ値となります。 1つ目と2つ目は、同じ鍵、同じメッセージであるため、2つのハッシュ値は同じになります。関数の呼び出し方が少し異なるだけです。 3つ目は、1,2番目と異なる秘密鍵を使用しているため、メッセージは、1,2と同じですが、ハッシュ値が異なります。 hmacを求める hmac.new()の第三引数でハッシュタイプ
自然言語処理の入門、wikipedia全文データを使ってみる こんにちは。 AI coordinatorの清水秀樹です。 自然言語処理について何から勉強を始めようかと色々模索していたところ、wikipediaの日本語全文データをダウンロードできることを知り、早速それが使えそうなところから初めてみることにしました。 なんでもWord2Vecとかいうライブラリーを使用すると、単語の意味をベクトルで表現できるらしく、関連する単語や類似度を調べることができるようになるとのこと。 ちょうどデータ量として申し分ないwikipedia日本語全文データも使えることも分かったので、早速それらを組み合わせて勉強してみることにしました。 当記事はその内容の紹介になります。 純粋 – 正義 + 悪 = 邪悪 みたいなことができるようになります。 興味がある方は参考にしてみてください。 開発環境 macOS Sie
日本語の自然言語処理で分散表現を使おうと思った場合、まず頭に浮かぶのはword2vecだと思います。 特に分散表現自体の精度とかには興味がなく、それを使った対話システムを作りたいだけだったりするのであれば、 データクレンジングや学習には結構時間もかかるので、学習済みの公開モデルを使わせていただくのが手っ取り早そうです。 (単語ベクトルの準備に手間取り、モチベーション低下に繋がる悪い例:対話システムを作りたい!【準備編1】) 調べてみると、よく出来ていそうな公開モデルを2つ見つけたので、その利用方法と気になるベクトル次元数と単語数を調べてみました。 なお、どちらもWikipedia日本語版を学習元にしているようです。 word2vecを使うには、以下のバージョンのgensimを利用します。 $ pip freeze | grep gensim gensim==1.0.0 白ヤギコーポレーショ
Image Stitching: A Simplistic Tutorial Creating a panorama using multiple images Multiple Image Stitching¶ I must say, even I was enjoying while developing this tutorial . Something about image perspective and enlarged images is simply captivating to a computer vision student (LOL) . I think, image stitching is an excellent introduction to the coordinate spaces and perspectives vision. Here I am g
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く