![Googleの新機能「Motion Sense」! スマホを触らずに操作できるって実際どうなの?](https://i.ytimg.com/vi/ZSvReaTVP08/hqdefault.jpg)
- FCCは、Project Soliと呼ばれる新しいレーダーモーションセンサーテクノロジーのテストをGoogleに承認しました。
- このレーダーモーションセンサーを使用すると、人は実際に何も触ることなく、スマートフォン、スマートウォッチ、またはその他のデバイスを操作できます。
- Googleは現在許可されているよりも高い電力レベルを使用する必要があるため、モーションセンサー機器のテストには承認が必要です。
FCCは月曜日に、Project Soliとして知られる新しいタイプのモーションセンサーテクノロジーのテストをGoogleに許可する遅れた命令を発行しました。 Googleは、Project Soliがユーザーが実際に何かに触れることなく電子デバイスを操作する方法を開くことができることを望んでいます。
Samsung Galaxy S4で導入されたSamsungのAir Viewテクノロジーを覚えている人は、これがそれに似ていると思うかもしれません。ただし、そうではありません。 Project Soliはレーダーを使用して、ユーザーが空中で手のジェスチャーを使用して電子デバイスと対話できるようにします。たとえば、スマートフォンのボタンを「クリック」すると、親指と人差し指を携帯電話からかなり離れた場所で一緒にタップできます。
デバイスはレーダーテクノロジーを使用しているため、Googleはテストを実行するためにFCCからの特別な承認を必要としました。当初、Googleは57〜64 GHzの周波数帯での動作許可を求めていましたが、FCCでは現在許可されている基準をわずかに上回ることしか許可していません。それでも、FCCはこの場合、Googleが必要なものすべてを取得できなかったとしても、Googleに特別なライセンスを付与しています。
レーダーは布地に侵入する可能性があります。これにより、手袋やその他の衣服を着たユーザーがデバイスを操作し続けることができます。また、ユーザーは、ポケットやバックパックにあるデバイスを取り外すことなく操作できます。
FCCは、このレーダーテクノロジーは飛行機でも機能する可能性があり、飛行中であっても将来のレーダーベースのデバイスを使用できるようになると指摘しました。ただし、デバイスはFAAの規則と規制を満たす必要があります。
Project Soliは現在のところテスト段階にあるため、商用製品で表示されるまでにはかなり時間がかかります。ただし、空中で手を振ってデバイスを操作する可能性は、かなりクールで未来的です。