マニュアル > TERASOLUNA Server Framework for Java(Web版)チュートリアル TERASOLUNA Server Framework for Java(Web版) 目次
マニュアル > TERASOLUNA Server Framework for Java(Web版)チュートリアル TERASOLUNA Server Framework for Java(Web版) 目次
JavaScript記述を削減するAjax「マスカット」とは 前回の『業務システムでAjaxを使う際の「JavaScript問題」とは』では、「TERASOLUNA Client Framework for Ajax」(以下、TERASOLUNA Ajax)の概要について説明しました。 今回は、TERASOLUNA Ajaxのオープンソース版である「マスカット」と、その開発環境「マスカットIDE」を利用し、簡単なAjaxアプリケーションを作成する手順を紹介します。 Eclipseプラグイン「マスカットIDE」の機能と構成 マスカットIDEはEclipseベースの統合開発環境です。マスカットIDEを利用すると、Ajaxアプリケーションの動作に必要な「レイアウト定義XML」「イベント定義XML」を直感的に編集できます。 マスカットIDEはマスカットエディタ、[プロパティー]ビュー、[アウトライ
URL Encoding (or: 'What are those "%20" codes in URLs?') = Index DOT Html by Brian Wilson = RFC 1738: Uniform Resource Locators (URL) specification The specification for URLs (RFC 1738, Dec. '94) poses a problem, in that it limits the use of allowed characters in URLs to only a limited subset of the US-ASCII character set: "...Only alphanumerics [0-9a-zA-Z], the special characters "$-_.+!*'()," [n
hadoop の話題。その3 HiveのJDBCを使えばリモート上で動いているHiveに対して、JDBC(over thrift)経由でHive QLを実行出来るのですごく便利です。 ref - Hive/HiveClient - Hadoop Wiki HiveJDBCはフツーのJDBCっぽく使えるので、こんな感じで普通のDBサーバにSQLを投げる感覚で使える import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.SQLException; import java.sql.Statement; public class HiveConnection { public static void main(String...args) thro
このドキュメントでは、チュートリアルとして役立つことを目的に、ユーザーが触れる Hadoop Map/Reduce のすべての側面についてまとめて説明します。 Hadoop のインストールと設定が済み、すでに実行されていることを確認してください。詳細については、以下を参照してください。 Hadoop を初めて使うユーザーは、Hadoop クイックスタートを参照してください。 大規模な分散クラスタを使うユーザーは、Hadoop クラスタセットアップを参照してください。 Hadoop Map/Reduce は、どこにでもあるごく普通のハードウェアで構成した (数千ノードの) 大規模なクラスタ上で、膨大なデータ (数テラバイトのデータセット) を並列処理するアプリケーションを簡単に記述できるようにするソフトウェアフレームワークです。 通常、Map/Reduce のジョブは、入力データセットを独立
通常、Hadoop クラスタのインストールでは、クラスタを構成するすべてのマシンでソフトウェアを展開する作業が伴います。 一般にクラスタ上の 1 台のマシンを NameNode 専用とし、これとは別のマシンを JobTracker 専用とします。これらのマシンはマスターです。クラスタ上のこれら以外のマシンは DataNode および TaskTracker の両方の役割を果たします。これらのマシンはスレーブです。 以下では、ディストリビューションのルートが HADOOP_HOME に設定されているものとします。通常、クラスタ上のすべてのマシンの HADOOP_HOME パスは同じです。 以下のセクションでは、Hadoop クラスタの設定方法について説明します。 設定ファイル Hadoop の設定は、次の 2 種類の重要な設定ファイル群によって決まります。 読み取り専用のデフォルトの設定 -
2009-11-12 Hadoop 2009-11-11 SQL 2009-10-27 FrontPage 2009-10-02 PowerPoint RecentDeleted 2009-09-04 WWW 2009-08-25 bash 2009-08-11 文字コード Windows 2009-07-14 エクセルVBA 2009-07-13 Perl 2009-07-07 Ruby Java 2009-07-04 リンク 2009-04-30 C++ 2009-03-13 DirectShow 2009-02-24 料理 2009-02-23 スノーボード 2009-02-13 投稿学会 2009-02-09 ビデオ作成 SSH Agent Forwarding † インストール前にSSH Agent Forwardingの設定をして、パスワードなしでログインできるようにしておく。
エラー番号:10105 0:00 ~ 0:00までメンテナンス中です。 戻るを押してください。 閉じるを押してください。 サイボウズ Office Version 10.7.0 20170220131210 Copyright (C) 2013-2017 Cybozu
What we want to do In this tutorial, I will describe the required steps for setting up a multi-node Hadoop cluster using the Hadoop Distributed File System (HDFS) on Ubuntu Linux. Hadoop is a framework written in Java for running applications on large clusters of commodity hardware and incorporates features similar to those of the Google File System and of MapReduce. HDFS is a highly fault-tolera
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く