今回の回答者: 日本IBM システム製品事業 テクニカル・セールス System z テクニカル・セールス 部長 山田 義昭 ネットワークの世界では、8ビットの情報量を表す単位として「オクテット」という言葉を使うことがあります。256ビットは32オクテットです。また、オクテットは8ビットずつの区切りを示す意味でも使われます。例えば、32ビットあるIPアドレスの最初の8ビットを「第1オクテット」と呼んだりします。一方、コンピュータの世界では、8ビットを示す単位として「バイト」が使われます。では、オクテットとバイトは何が違うのでしょうか。 実は、オクテットが必ず8ビットであるのに対し、バイトが何ビットを表すかは決まっていません。バイトとは、欧文の1文字を表す情報量だからです。今では1バイト=8ビットが一般的ですが、大型コンピュータが主流だった時代はコンピュータメーカーによって、1バイトが6ビッ
![「オクテット」と「バイト」は何が違う?](https://cdn-ak-scissors.b.st-hatena.com/image/square/bed39b5962a5d552c95b6d796db8f55e72d32943/height=288;version=1;width=512/https%3A%2F%2Fxtech.nikkei.com%2Fimages%2Fn%2Fxtech%2F2020%2Fogp_nikkeixtech_hexagon.jpg%3F20220512)