計測値と誤差

IEネタというわけではないが、広い意味では工業(Industrial)ネタなので。
(id:yasuimanにて掲載した方がよいかもしれませんが・・・)

放射線量が話題になっております。少し解説を入れたいと思います。
まず、
1ミリシーベルト=1,000マイクロシーベルト
1マイクロシーベルト=1,000ナノシーベルト
日常的には0.12マイクロシーベルト/時間 程度の放射線は自然から浴びています。
(これは、自然界から受ける2.4(ミリシーベルト/年)/365/24から算出)
当初は1,000倍とか言っていましたが、ようやくその辺りはまともになってきたようです。今はミリ(か、マイクロ)で統一されているようです。

なお、放射線業務従事者(人間です。資格があるだけ、試験に受かっただけであって、特殊な人間ではありません)が浴びていいと言われる量が50ミリシーベルト/年*1 *2ですが、それでもすぐ死ぬ訳ではありません。7シーベルトを短時間で受けたら死ぬと言われています。
(なお、1シーベルト=1,000ミリシーベルトです)

そして、表題の計測値と誤差。どんな値にしても計測値には精度と誤差がある。例えばヒトの体温計は36.0±0.1℃のように下一桁まで保証、誤差0.1℃というものがある(もちろんもっと精度が高く、誤差が少ないものもある。婦人体温計などがよい例)。放射温度計(赤外線などの測定)は、温度計にもよるが、10℃単位程度の誤差/精度のものもある。熱電対温度計は熱電対の金属ペアによって誤差や精度は決定されるが、起電力を温度に変換するため、1℃単位程度〜10℃とばらつきがある。

さて、本題に戻したい。現地で測定に用いているガイガーカウンターの計測精度および誤差がわからない。これってどれくらいだろうか。0.001マイクロシーベルト(つまり1ナノシーベルト)まで精度は保証されるのか? 誤差はどのくらいだろうか? 仮に誤差が0.01マイクロシーベルトだとすれば、日常0.12±0.01マイクロシーベルトなので0.12が0.13になっても誤差範囲内である。全く意味がなくなる。また精度保証としても下3桁目は意味がないことになる。ということで、さあ、どうだ?!

IE/QCをやっていると、こういうことに敏感になる。半ば計測技術や制御技術の範疇ではあるが、気になるようになってきたということは、一人前なんだろうか。

*1:緊急時は100ミリシーベルト/5年です。

*2:なお、16日付け厚生労働省官報公示で100ミリシーベルト/5年が250ミリシーベルトに上限を上げられています。http://www.kantei.go.jp/saigai/201103211200genpatsu.pdf