2016/03/29 · 今回pyaudioを入れてみたのでまとめました。 ちなみにバージョンによってはpyaudioがデフォルトで入っている場合もあるみたいです。
2016/03/29 · 今回pyaudioを入れてみたのでまとめました。 ちなみにバージョンによってはpyaudioがデフォルトで入っている場合もあるみたいです。
将来的に音響解析などに手を出したいと思ったのは良かったのだが、それを行う言語をどうしようと悩みあげた挙句、pythonさんを利用することにした。理由はmatlabとかお金かかるし、最近はpythonさんが人気あるとか、そんな感じ。 ただ決めたのは良かったのだけど、PyAudioの環境構築に中々手間取ったので備忘録。 追記(15/05/25): Anaconda 2.2.0の中に既にpyaudioがあるもよう。そのため色々と中身を変更しました。 開発環境 : Yosemite(10.10.3), Python 2.7.8 :: Anaconda 2.1.0 → Python 2.7.9 :: Anaconda 2.2.0 (x86_64) まず最初にpyenvを使ってAnaconda 2.2.0をインストールしてから、中身を確認。conda listでもpip listでもどちらでもいいです
Pythonのバージョンによるパッケージの違い Python3.5がリリース1されました。Anaconda2も対応したようです。 普段は、Anacondaを利用しているので、Anaconda上でパッケージがどのように変わったかを確認してみます。 まず、Anacondaのサイトからデータを取得してpandasの表にしてみます。 import pandas as pd from urllib import request from bs4 import BeautifulSoup with request.urlopen('http://docs.continuum.io/anaconda/pkg-docs') as fp: s = fp.readall() bs = BeautifulSoup(s) ls = bs.findAll('table', attrs={'class':'docut
とりあえずMBA上にHomebrewは入ってるので、brewを使って必要なライブラリなどをインストール。 まず、juliusのページによると開発環境(のヘッダとライブラリ)が必要なようなのでflexを入れる。 つぎに。portaudioを入れる。juliusはcoreaudioに対応してないとのことだから入れる(他のページを参考にすると)。 $ brew install –universal portaudio juliusをダウンロードするためにwgetをインストール $ brew install wget 下記のページを参考に http://qiita.com/amano-kiyoyuki/items/41f250a52e0929001e1f 以下にあるdictation kitをDLすることに、自動口述筆記のための最低限のライブラリとJuliusのBINが入っているので。 http:
pythonでsin波を出力する方法については、以下の記事を参考にさせていただきました。とてもわかりやすいソースコードだったので、これらについての解説は省略したいと思います。 [正弦波の合成 | 人工知能に関する断創録] こちらのソースコードのうち、一番上にあるソースコードを参考にさせていただきました。 その他、自分で行った変更とか 数値に対応した周波数のペアを返す関数 # 数値に対応したdtmfの周波数ペアを返す # 引数は、文字を受け取る # A,B,C,Dには未対応 def dtmf(number): freq_row = ( 697, 770, 852, 941) freq_col = ( 1209, 1336, 1477, 1633) if(number == '0'): row = 3 col = 1 elif(number == '#'): row = 3 col = 2 e
こんにちわ。井上です。 現在開発しているシステムではビッグデータを扱っています。 そのデータを統計分析することで、未来のデータを予測したいと考えています。 そのためにはどのような言語を使って、どうやって処理していけばいいのか検討もつきません。 そこで今回は、どのようにすればシステムでビッグデータを利用して、統計分析できるのかを模索していこうと思います。 そもそもビッグデータとは 特に決まった定義がないようなので、今回は以下の2つを定義とします。 事業に役立つ知見を導出するためのデータ -総務省 制作白書平成24年度版 市販されているデータベース管理ツールや従来のデータ処理アプリケーションで処理することが困難なほど巨大で複雑なデータ集合の集積物を表す用語 -wikipedia「ビッグデータ」 どちらにもいえることは、データ数が何件以上とか、何GB以上などのデータとしての大きさは決まりがないよ
「Pythonによるデータ分析入門――NumPy、pandasを使ったデータ処理」の読書会の第六回目を行います。 今回は7章の「データの整理: データのクリーン、マージ、再形成」を行います(手首担当)。 読み進めながら各自手元で動作を確認する読書会形式です。 参加する方は事前にPythonとNumpy+Scipy+Pandas+matplotlibを何かしらの方法でインストールをお願いします。Enthought CanopyやPython(x,y)などもオススメです。anacondaというのもあります。 本書にて出てくるデータなどは以下のリンク先にありますので、適宜git cloneしておくなどしてください。 http://github.com/pydata/pydata-book matlab, Rなどを普段触っている方で他言語によるデータ分析に興味のある方、単純にPythonでデ
欲しいデータを手に入れる。―インターネットを1つの巨大なデータベースとして使おう。 本書の目的は、インターネットを「1つの巨大なデータベース」として扱い、「Webデータ」として活用できるようになることです。Web上のデータを使用する上での基礎知識を解説し、インターネットを1つの巨大なデータベースとして扱うための技術を紹介します。Webスクレイピングはその代表的な技術ですが、より簡単な方法もありますのでそちらも紹介します。データの基礎知識やプログラミング技術について、代表的なライセンスや著作権を交えながら語り尽くします。 「Part 1: Webスクレイピングを試す」でLibraHack 事件の概要と論点、Webデータ活用の注意点を紹介。Pythonを使ったWebスクレイピングを実際に試します。 「Part 2:データの基礎知識を理解する」で、データの定義や標準的なデータ形式、保存方法を紹介
AnacondaはPythonの科学技術計算,特にデータ分析用のパッケージです.Python2.7用と3.4用がありますが,2.7用が無難なようです.3.4にも対応していて,両者の差異はわずかのようで,両者を切り替えて使うこともできるようです. ここから適切なファイルを適当なディレクトリにダウンロードします.Windows版はダブルクリックで普通にインストールできます.以下はLinux版の説明です. ダウンロードしたディレクトリに移動し,rootになって下記のコマンドを実行します. [cc]$ sudo -i # bash Anaconda-2.2.0-Linux-x86_64.sh[/cc] インストールディレクトリは/usr/local/anacondaとし,インストールが終わったらrootから抜けます. 次に.bashrcに以下を加えます. [cc]export /usr/local
Anacondaで入れたPython3からMeCabを使いたい。 Vagrant上のUbuntu14.04に構築する。 目次 VagrantでUbuntu14.04環境を作成pyenvでAnacondaをインストールMeCabをインストールmecab-python3をインストール1. VagrantでUbuntu14.04環境を作成こちらのサイトから、Ubuntu14.04のboxを追加。 色々あったけどOfficialにした。 vagrant box add ubuntu1404 https://cloud-images.ubuntu.com/vagrant/trusty/current/trusty-server-cloudimg-amd64-vagrant-disk1.boxVagrantfileの作成。 mkdir ubuntu cd ubuntu vagrant init ubu
Python ディストリビューションの一つである Anaconda のインストール方法です。 Anacondaとは Anaconda は Python の分析系環境を構築するために様々なパッケージをまとめた無料のディストリビューションです。 インストールを行うことで、NumPy、SciPy、pandas、matplotlib や機械学習ライブラリ scikit-learn 等のパッケージが最初から用意できます。コンパイルに失敗したり必要なものを集める手間から解放されるわけですね。 Anaconda に標準インストールされているパッケージは Anaconda Package List で確認できます。 最新の Anaconda3-2.4.0 では Python 3.5 がインストールされます。2.x系が使いたい場合は Anaconda2-2.4.0 をインストールしてください。 Anaco
アクセスログとは別にデータベースに直接アクセスして分析したいみたいなことって結構あると思うんですよね。 でもわざわざsshでログインして、そのサーバーに分析環境作ってみたいのって面倒な上になんかぶっ飛ばしちゃいそうで怖いじゃないですか。 なので今回は、Pythonでフレッシュな状態の RDSにアクセスしてiPython+Anacondaでパワフルに分析できるように環境を整えようと思います。 Anacondaのインストール iPythonの初期設定 RDSの設定と接続テスト 1. Anacondaのインストール Anacondaはnumpyとかipythonとか分析に必要なライブラリが一括で入っているパッケージです。 Pyの分析環境構築は日本語ドキュメント少ないし、こけまくるので素直にAnaconda使ったほうがいいと思います。 インストールコマンド #まずはpyenvのインストール $br
印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます IBMは米国時間11月23日、同社の機械学習システム「SystemML」が「Apache Incubator」のオープンソースプロジェクトとして受理されたと発表した。 Apache Incubatorは、The Apache Software Foundationの正式プロジェクトへの登竜門だ。 機械学習システムのオープンソース化はトレンドになってきている。 このため、機械学習の導入あるいは利用拡大を検討している企業にとって、考慮すべきオープンソースのコードベースは星の数ほどある。例えば、Googleの「TensorFlow」やFacebookの「Torch」といったツールは、ニューラルネットワークの学習効率を向上させるためのものだ。そ
ロゴステッカーの作成計画も進行中です。近々イベント会場でお配りできるかも知れません。 チュートリアルおよび次回勉強会のお知らせ この度PyData.Tokyo初の試みとして、初心者向けのチュートリアルを3月7日(土曜日)に行います。また、次回勉強会はデータ解析に関する「高速化」をテーマにし、4月3日(金曜日)に開催します。詳細は記事の最後をご覧下さい。 Sparkによる分散処理入門 PyData.Tokyo オーガナイザーのシバタアキラ(@madyagi)です。 ビッグデータを処理するための基盤としてHadoopは既にデファクトスタンダードになりつつあります。一方で、データ処理に対するさらなる高速化と安定化に向けて、新しい技術が日々生まれており、様々な技術が競争し、淘汰されています。そんな中、Apache Spark(以下Spark)は、新しい分析基盤として昨年あたりから急激にユーザーを増
PyData.Tokyoは「Python+Dataを通じて、世界のPyDataエクスパートとつながれるコミュニティーを作る」ことを目的として設立され、これまでに勉強会4回およびチュートリアル1回が開催されました。5回目の勉強会となる今回は「自然言語処理」をテーマに、ニューヨーク大学の関根聡さんとサイボウズ・ラボの中谷秀洋さん(@shuyo)のお二人にお話しいただきました。登壇者のレベルの高いご講演に加え、Preferred Networks、デンソーアイティーラボラトリ、クックパッド、Googleなど、第一線でご活躍されている非常に質の高い参加者にもご参加いただき大変充実した会になりました。 過去のイベントのリスト NLP Introduction based on Project Next NLP PyData.Tokyo オーガナイザーの山本(@kaita)です。 最初の講演は、ニュー
scikitlearnはnumpyしか受け付けないので、pandasでデータ加工した後numpy配列に変換する必要があるし、標準python、numpy、pandasは機能が重複していて混乱するので、まずは基礎の基礎をまとめる。 #!/usr/bin/env python # -*- coding: utf-8 -*- # インポート import numpy as np import scipy as py import pandas as pd import itertools as it ''' 作成 ''' # リスト作成 list_value = [10,11,12] list_value Out[374]: [10, 11, 12] # タプル作成 tuple_value = (10,11,12) tuple_value Out[375]: (10, 11, 12) # ディク
私のpythonデータ分析環境は以下の通りです。 os fedora22。 DVDに焼く方法だと途中でインストールが止まってしまいできなかったので、fedora21からバージョンアップした。 fedora22最高です。 python anaconda 64bit python3.4です。 python2系は日本語の扱いがめんどうですが、python3系はシンプルに日本語を扱えます。 また、データ分析をするためにはnumpyを筆頭にモジュールが必要で、個別にインストールしようとすると依存関係に悩まされますが、anacondaではまとめてインストール、簡単にアンストールができます。anaconda環境にpipもできます。mecabも動かすことができました。 anacondaもまた最高です。 Download Anaconda 機械学習 scikit-learnです。機械学習をする方法は沢山あり
... データの分析や,データサイエ. ンスに関するプログラミングができる環境を構築するため,プログラミ. ング環境ANACONDAのインストールができるようにします. (2) ANACONDA ...
PyData.Tokyoは「Python+Dataを通じて、世界のPyDataエクスパートと繋がれるコミュニティーを作る」ことを目的として設立され、これまでに勉強会3回およびチュートリアル1回が開催されました(過去のイベントのリスト)。4回目の勉強会となる今回は「データ解析アルゴリズムの高速化」をテーマに、株式会社ブレインパッドの佐藤貴海さん(@tkm2261)とシルバーエッグ・テクノロジー株式会社の加藤公一さん(@hamukazu)の2人に話していただきました。 登壇者のレベルの高い講演に加え、ヤフー、日本IBM、NTTデータ、AWS、Gunosy、Preferred Networksなど、第一線で活躍されている非常に質の高い聴講者にも参加いただき、大変充実した会になりました。 Pythonは書きやすい言語仕様と豊富なライブラリが特徴で、手軽に複雑なデータ分析を行えますが、他言語と同じ感
簡単な統計分析について. この教材の演習として⾏う統計分析では,溶接構造⽤熱間圧延鋼材SM400. の降伏応⼒,引張強度と破断伸びについて,平均値や最⼤値などの統計 ...
Pythonいろいろ入れすぎた Python3を単独で入れてみたり、Canopyを入れたりAnacondaを入れたり、Spyderを入れたらその中にもPythonが入っていたり・・・と、わけがわからなくなってきたので、いったんMacに標準で入っているもの以外は全部アンインストールして、Anacondaを基本にすることにしました。 Spyderも、前のエントリではSpyder単独でインストールしたのですが、Anacondaにパッケージされたものを使えばいいことが判明したので、今のうちにやり直したい。 Apple が提供している Python は /System/Library/Frameworks/Python.framework と /usr/bin/python にそれぞれインストールされています。これらは Apple が管理しているものであり Apple やサードパーティのソフトウェア
Pythonを使う時、なんとなく、Canopy ExpressっていうIDEを使ってました。 あまり深い理由はなく、オライリーの『Pythonによるデータ分析入門』でCanopy使いましょうって書いてあったり、IPythonのインストール解説ページにいくと、IPythonを使いたいなら単独で入れるのではなくAnacondaかCanopyのようにパッケージ化されたものを使うべしと書いてあった(リンク)からです。 それで、とりあえず使えたから良いんですが、 スリープになるたびに不正終了としてエラーログをEnthoughtに送信するか聞かれる デバッガを使おうとすると有料 スクリプトの特定部分を選択してその場で実行ってのができない(実行したい分だけコピペしてコンソールに貼れば実行できるけど、カーソルで選択した部分をcommand + enterで実行できる方がよい) など不満な点もあったので、い
統計モデル構築のためにPython+Anaconda+Eclipseを選択 これまで何度かご紹介してきたとおり、ギックスではR言語を利用して統計モデルを作成するケースが多いです。Rはオープンソースなのでフリーで活用できますし、カバーしている統計モデルも豊富で非常に利便性が高いです。ただ、データがあまりにも大きい場合に時間がかかりすぎる、もしくはメモリーが足りなくなってプログラムが停止してしまうということを幾度か経験しました。 そこで非常に大きいデータに対しても統計モデルするために、MahoutなどHadoopを利用しての統計モデル作りも試しています。一方で、Pythonの統計モジュールを利用して統計モデルを作成してもなかなかに早いという情報を耳にしましたので、Pythonでの統計モデル構築にトライしました。今回の連載ではPythonの概要や今回選んだモジュール群、Pythonで統計モデルを
連載目次 全国のアドミンくんファンの皆さん、こんにちは~! いつもいつも、アドミンくんをご愛読いただきましてありがとうございます。 いやぁ、早いもので、2015年ももう終わりなんですね~。歳とともに加速するこのスピード感、本当に恐ろしくなりますねぇ……。 さて、突然ではございますが、今回は4コマまんが「アドミンくん」の2015年を振り返ってみようと思います。 えっ、年末のドサクサに紛れた安易なページビュー稼ぎじゃないのかって? いやいや、ステマだなんだって、昨今のWebメディアまわりはいろいろとブラックな話がありますから、疑心暗鬼になるのは分かりますけれど、そんなよこしまな考えはもちろんありません。あくまでアドミンくんファンの皆さんと、ほのぼのと2015年を振り返り、来る2016年を新たな気持で迎えようという、真面目な企画なんですよ。 ハイッ、斜めにしか見られなかった自分が間違っていた……
@ITは、特集「ITエンジニアの未来ラボ」の一環で、9月にアンケート調査「ITエンジニアの意識調査:いま何にチャレンジしたいですか?」を実施。486人から回答を得た調査結果について、元@IT編集長で現在ブログメディア「Publickey」を主宰する新野淳一氏が、日本マイクロソフト エバンジェリストの高橋忍氏、井上章氏と語った。 インタビューは、マイクロソフトの動画サイト「Channel 9」で公開。前回は調査結果の中から「ITエンジニアが今後身に付けたいスキル」上位5つについて語られたが、今回は、「ITエンジニアがこれから取り組みたい次世代技術」上位5つについて下記のように語られた。 第1位「IoTによるモノからのデータを活用したシステム/サービス開発」 IoTを活用したシステム/サービス開発というと、センサーからデータを取得するフェーズや集めたデータを解析するフェーズを含めて、多岐にわた
@ITは、特集「ITエンジニアの未来ラボ」の一環で、9月にアンケート調査「ITエンジニアの意識調査:いま何にチャレンジしたいですか?」を実施。486人から回答を得た調査結果について、元@IT編集長で現在ブログメディア「Publickey」を主宰する新野淳一氏が、日本マイクロソフト エバンジェリストの高橋忍氏、井上章氏と語った。 インタビューは、マイクロソフトの動画サイト「Channel 9」で公開。今回は、調査結果の中から「ITエンジニアが今後身に付けたいスキル分野」上位5つについて下記のように語られた。 第1位「スマートフォンアプリ開発・運用」 第1位の「スマートフォンアプリ開発・運用」について気になるのは、iPhoneやAndroidといったプラットフォームだろう。多岐にわたるプラットフォームやデバイスについて、どのように対応していくのか、課題に思うエンジニアも多いはずだ。ここでは、W
@ITは、特集「ITエンジニアの未来ラボ」の一環で、9月にアンケート調査「ITエンジニアの意識調査:いま何にチャレンジしたいですか?」を実施。486人から回答を得た調査結果について、アイティメディアのエンジニア2人が代表して、日本マイクロソフト エバンジェリストの高橋忍氏、井上章氏と、スキルアップへの取り組みを中心に語り合った。 インタビューは、マイクロソフトの動画サイト「Channel 9」で公開。前々回は調査結果の中から「ITエンジニアが今後身に付けたいスキル」上位5つについて、前回は、「ITエンジニアがこれから取り組みたい分野」上位5つについて語られた。 そして、シリーズ3回目となる今回は、井上氏と高橋氏が、アイティメディアでAndroidアプリ開発を担当している鎌田敏弘とWeb制作を担当する周木翔に、業務時間外で技術に触れる機会や、スキルアップの取り組みなどについて下記のトピックで
SQL Serverのインスタンス名を表すレジストリ SQL Serverをインストールすると、レジストリ中にインストールしたSQL Serverのインスタンス名が記録される。複数のインスタンスをインストールすると、このように複数の文字列が追加される。 (1)SQL Serverに関するレジストリのルート。 (2)ここにインスタンス名(ユーザー用の表示形式の名前)が記録される。 (3)この例では3つのエントリがある。「MSSQLSERVER」が最初のインスタンス、「SQLEXPRESS」が2つ目のインスタンス、「MAPS」が3つ目のインスタンスである。SQL Serverへの接続テストなどを行う場合は、どのインスタンスへ接続するかを指定する必要がある。 (4)インスタンス名と、その内部識別名(インスタンスID)の対応がここに記録されている。この例では、「MSSQLSERVER」→「MSSQ
SQL Serverの管理をまかされたけれど、SQL Serverって難しそうで何だかよく分からない。そんなビギナー管理者に贈るQA連載開始! まずはSQL Serverがインストールされているかどうか確認するところから始めよう。 今回から始まるこの連載では、SQL Serverシステムの管理方法について、主にビギナー管理者向けのトピックについて取り上げる。バリバリのSQL Server管理者ではなく、どちらかというとSQL Serverについてはよく知らないし、データベースについてもそれほど造詣の深くないシステム管理者に向けて、SQL Serverシステムを管理するための情報を提供する。 現在ではさまざまなデータをSQL Serverをはじめとするデータベース・システム上に保存することが少なくない。ちょっとした社内の業務用アプリケーションであっても、最近ではデータベース・システムに情報を
2017/04/20 · Linuxサーバであれば uname -n コマンドで確認できますし、そもそもプロンプトに常時表示する設定も入っているでしょう。 [hogehoge@webapp01a]$ uname -n ...
インスタンスごとに異なる MySQL Server バイナリを使用したり、複数のインスタンスに対して同じバイナリを使用したり、この 2 つの方法を組み合わせたりすることが可能 ...
状況によっては、MySQL の複数インスタンスを単一マシン上で実行する場合もあります。 既存の本番設定をそのままにして、新しい MySQL リリースをテストすることもできます。 または、ユーザーが自分で管理する異なる mysqld サーバーへのアクセス権を別々のユーザーに与える場合もあります。 (たとえば、ユーザーは独立した MySQL インストールを異なるカスタマ用に提供するインターネットサービスプロバイダである場合もあります。) インスタンスごとに異なる MySQL Server バイナリを使用したり、複数のインスタンスに対して同じバイナリを使用したり、この 2 つの方法を組み合わせたりすることが可能です。 たとえば、MySQL 5.7 と MySQL 8.0 からそれぞれサーバーを実行し、異なるバージョンによって所定のワークロードがどのように処理されるかを確認することもできます。 ま
電源障害などの事象によりロード・バランシング・データベースのデータが破壊されることがあります。 データベース破壊から復旧するには、 クラスターからすべての ...
Django におけるテスト¶ 自動化テストは、モダンなウェブ開発者にとってバグを殺すために非常に役に立つツールです。テストのコレクション、 test suite を使うことで、次のような数々の問題を解決したり避けることができます。 新しいコードを書いている時、テストを使えば、自分が書いたコードが期待通りに動作するかどうか確かめることができる。 古いコードのリファクタリングや修正をしている時、テストを使うことで、自分の行った変更が思ってもないような仕方でアプリケーションの動作を変更してしまわないことを保証できる。 Web アプリケーションのテストは複雑なタスクです。なぜならば、Web アプリケーションには複数のロジックのレイヤーが存在するからです。HTTP レベルのリクエストのハンドリングから、フォームの検証と処理、テンプレートのレンダリングなどです。しかし、Django のテスト実行フレ
learn.microsoft.com › ... › Dynamics 365 › 財務と運用アプリの開発と管理
むかしむかしあるところにおじいさんとおばあさんが住んでました。 おじいさんは山へ芝刈りに。 おばあさんはDBのデータを少しでも軽くしようと文字列をバイナリ型にして保存させましたとさ。 そしておばあさんはいいました。 「バイナリ型だけどSQLでとれんの、これ?」 ということでやってみました。 ※一旦AWSはお休み。 準備 バイナリ型と文字列型で同じデータを入れます。 mysql> create table test2(str1 binary(16), str2 char(32)); Query OK, 0 rows affected (0.01 sec) mysql> show create table test2; +-------+-------------------------------------------------------------------------------
バイナリ形式の場合,入力データはデータベースへ格納される形式で記述します。記述方法を次に示します。 <この項の構成>: (1) 記述形式: (2) 規則: (3) ...
SQL Server のデータベースのリストア検証をするためにデータベースを破損させる必要のあることがあります。 データベースを意図的に破損させる方法について軽く書いてみたいと思います。 データベースのリストアを検証する場合、以下の 2 パターンを試す時があるかと思います。 データベースの破損 データページの破損 データベースの破損はデータベースのヘッダ領域や一部のファイルが破損してしまいデータベースにアクセスができない状態となります。このケースではログ末尾のバックアップの取得を行い、障害発生の直前までリストアをする検証をするパターンが考えられます。 データページの破損はページ単位のリストアやデータベースミラーリング / AlwaysOn 可用性グループのページの自動修復 / DBCC CHECKDB REPAIR_ALLOW_DATA_LOSS を使用した修復の検証をするパターンが考えら
前回に続き、今回も女性エンジニアさんから体験談をいただきました。仕事の全体像が見える職場で働きたい! そう願って小さな会社を選択したY口さん。「なんでもできる」職場で得た経験とは……というお話です。 1から10まで自分でやれる環境を求めました 大きなシステムのたった一部分だけを担当するとか、工程の中のテストだけを担当するとか、そんなのはイヤだなと思ったY口さんは、ある小さな会社へと新卒入社を果たします。文系からの就職であるため、プログラミング経験はゼロ。まったくいちからの出発でした。 ところが確かに「なんでも自分でやれ」な社風ではあったのですが、「あまりに度が過ぎてないか?」と思いはじめることもちらほらと……。 「データベースのパスワード教えてください」 と聞けば、「それぐらいわかんねぇのか」と返ってくる。「○○のドキュメントどこですか?」と聞けば、「それぐらいわかんねぇのか」と返ってくる
都心で働きながらも、気になるのは故郷に住まう両親のこと。地元へのUターン就職を考えるとき、その理由として多いのはこのパターンです。 九州出身で東京暮らし。ひとりっ子だったI井さんも、やはり両親が気にかかる1人。では地元でSE職探しますかと思いきや、思いの外地元の就職状況は厳しいらしくて……と、そんな今回の体験談です。 ガラガラと砕け散って脱SE 東京で大手SI会社勤務。それなりに重宝されるポジションにつきはしましたが、それがために気がつけばすっかり尻ぬぐいに忙殺される日々。当時I井さんの置かれていた状況は、そのようなものでした。 バグだらけでお手上げとなったシステムに「なんとかしてやってくれ」と放り込まれる。中心として活躍するがゆえに、本来受けさせてもらえるはずの研修も、その機会は後回しで、「今現場を離れられると困るからな」となきモノにされる。 その繰り返し。 いやいやそれどころか、尻ぬぐ
変わらない給与 K崎さんの立場は契約社員。その上で、他社に派遣されている……という扱いです。そのためか、何年勤務しようが現職での昇給はなし。額自体は普通なんですけど、「生涯お値段据え置きで」という、未来の感じられない待遇でした。 「2年勤務したら正社員」という約束があったので、本来であれば、いずれ待遇面の問題は解消されるはずでした。でも、「プログラマとして」という約束ともども、まとめてすべてがちゃぶ台返し。体よく外に出されてしまったまま、K崎さんに救いの手は差し伸べられません。 その状態で、延々と毎日毎日決められたいくつかの単純作業を、ルーチンワークとしてこなすのみ……。 あ、そうそう。その派遣先の職場というのも、微妙にストレスのたまる職場だったのです。 K崎さんが従事していたのは、早番遅番に分かれて、サーバー監視をする仕事でした。この現場には、K崎さんの他にもう1人派遣社員の方がいました
同一マシン(PC)に複数のRDBMSの共存は可能? . SQL、DBの勉強中です。 現在はMySQLを使用しているのですが、今度オラクルマスターの試験を受けることになり、 参考書に付属していたDVDから「Oracle Database 11g for Microsoft Windows(30日間トライアル版)」を インストールしようと思ったのですが、そもそも1つのPCに異なるRDBMSをインストールしても問題は無いのでしょうか? 「とりあえずやってみれば」いいのですが、 なにか大変なことが起こってしまってからでは困るので ご存知の方がいらっしゃいましたらご教示いただけないでしょうか。 よろしくお願いいたします。
IoTに踏み切れない企業、二つの悩み 「IoTの考え方自体は最近になって登場したものではなく、以前は“ユビキタス”という言葉で表現されていたことは多くの方が覚えていると思います。ではなぜその考え方が、今IoTとして注目されているのか――その大きな理由の一つが、ネットワークやテクノロジが大幅に進化し、10年前に考えられていたことが実現可能になったことが要因の一つです。事実、小規模なスタートアップから大企業まで、IoTに取り組みアクションに生かしている例は着実に増えつつあります。IoTで差別化を図ろうという認識は、急速に浸透していると言えるでしょう」 IoTを取り巻く状況について、土屋氏はまずこのように解説する。だが「ビジネスニーズをいち早く察知し、スピーディにそれに応える」IoTの浸透とは、裏を返せば「IoTに踏み出せない企業は、競争力を失いかねない」ということでもある。 特に昨今、注目され
本連載では第1回でOracle Databaseにおけるプライベートクラウド構築の特徴的な技術とその利点を紹介、第2回では、プライベートクラウド構築に向けた具体的なアップグレード手法を解説してきた。 第3回の今回は、アップグレードの際に避けては通れないSQLのテスト手法について、最新の情報を紹介する。 データベースアップグレードの最大の関門は「SQLテスト」 Oracle Databaseをアップグレードする際、多くの企業が気に掛けるのが、SQLの実行計画の変更に伴う影響だ。読者の中にも、「SQLの実行速度が低下した」「旧バージョンで動作していたSQLがエラーになる」「実行結果が以前と変わってしまった」という経験をした方がおられるかもしれない。 アプリケーションで使われているSQLを全て把握するのは難しいという根本的な問題もある。小規模なアプリケーションでもない限り、実際にどれだけのSQL
GMOメディア 會田耕太氏(ポイントメディア事業部 ディベロップメントグループ) 先濱英充氏(ポイントメディア事業部 ディベロップメントグループ マネージャー) 西田太一氏(ポイントメディア事業部 クリティエイティブグループ マネージャー/チーフデザイナー) 日本マイクロソフト 物江修氏(デベロッパーエバンジェリズム統括本部 テクニカルエバンジェリズム部 エバンジェリスト) DMM.comラボ 村岡健人氏(東京デザイン部 フロントエンドエンジニア/アクセシビリティアナリスト) 石橋啓太氏(東京デザイン部 フロントエンドエンジニア/UIデザイナー) (以下、敬称略) ――本日は、お時間をいただきありがとうございました。まずは、自己紹介を兼ねまして、DMM.comラボさん、GMOメディアさんのそれぞれで、開発、運営されているサイトの概要を教えてください。 石橋 DMM.comラボの石橋です。所
SDNは何のためにあるか、ネットワークをサービス化するためにある:Cisco ACI×Microsoft/Red Hat/VMware前編 「Cisco ACI」でシスコが実現しようとしているのは、ネットワーク、そしてITのサービス化だ。シスコが9月8日に東京都内で開催した 「Microsoft/Red Hat/VMware クラウド基盤の最前線とCisco ACIご紹介セミナー」における、シスコとマイクロソフトの講演を、要約してお伝えする。 SDN(Software Defined Networking)は何かの役に立たなければ意味がない。「SDNを超えるSDN」である「Cisco ACI(Application Centric Infrastructure)」でシスコが実現しようとしているのは、ネットワーク、そしてITのサービス化だ。 パブリッククラウドサービスのユーザーにしても。企業
IoTやビッグデータ分析が注目される現在、企業がSparkでビジネスを拡大するには:“エンタープライズSpark”超入門 Hadoopよりも高速なデータ分析ができると話題のApache Spark。Sparkを企業で活用し、本当の意味でのビッグデータ分析を行ってビジネスに役立てるためには、どのようにすればよいのだろうか。 IoTやビッグデータが注目されている中、Apache Hadoop(以下、Hadoop)よりも高速でニアリアルタイムに大規模データを分析できる存在としてApache Spark(以下、Spark)が注目されている。オープンソースとして提供されているSparkを企業で活用し、本当の意味でのビッグデータ分析を行ってビジネスに役立てるためには、どのようにすればよいのだろうか。日本アイ・ビー・エム アナリティクス事業部 テクニカル・リードの土屋敦氏に話を聞いた。 Hadoopより
Q2:SQL Serverがインストールされている場所を調べるには? A:「SQL Server 構成マネージャー」でサービスのプロパティを調べるか、管理ツールがインストールされていない場合はサービスの構成情報を調査する。 SQL Serverがインストールされていることが確認できたら、サービスの詳細設定を見ることにより、SQL Serverがどこにインストールされているかを確認できる。サービスの詳細は「sc qc <サービス名>」で確認できる(qcはquery configurationの略)。 C:\>sc qc "mssqlserver" ……sc qcコマンドでサービスの設定を調べる [SC] QueryServiceConfig SUCCESS SERVICE_NAME: mssqlserver ……サービス名 TYPE : 10 WIN32_OWN
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く