Debian が Buster になっているので、1年前と比べて mozc の install が簡単になりました。Ubuntu と同じ手順でインストールできます。Wiki の手順を更新しました。

SSH + uim-mozc
VNC + fcitx-mozc

UserLAnd は Android 端末内に Linux 環境を構築するためのアプリです。Chromebook (ChromeOS) が Linux アプリに対応したり Windows 10 が WSL をサポートするのと同じように、共存しながら Android 上で Linux のソフトが走るようになります。

GitHub: UserLAnd


● lxde + VNC で mozc の環境を作る

◎ 1. UserLAnd を起動したら Debian または Ubuntu を選択。

◎ 2. Username, Password, VNC Password を入力して SSH を選択する

◎ 3. Terminal にログインして下記のスクリプトを実行

#!/bin/sh
. /etc/os-release

if [ "$ID" = "ubuntu" ];then
sudo apt update
sudo apt -y upgrade
sudo apt -y install lxde
sudo apt -y install language-pack-ja
sudo update-locale LANG=ja_JP.UTF-8
sudo apt -y install fcitx-mozc
sudo dpkg-reconfigure tzdata
fi

if [ "$ID" = "debian" ];then
sudo apt update
sudo apt -y upgrade
sudo apt -y install lxde
sudo apt -y install task-japanese
sudo apt -y install task-japanese-desktop
sudo dpkg-reconfigure locales
. /etc/default/locale
sudo apt -y install fcitx-mozc
sudo apt -y install dbus-x11
sudo dpkg-reconfigure tzdata
fi

if [ "$GTK_IM_MODULE" = "" ]; then
cat >> $HOME/.profile <<END
export GTK_IM_MODULE=fcitx
export QT_IM_MODULE=fcitx
export XMODIFIERS=@im=fcitx
export DefaultIMModule=fcitx
END

fi


ファイルに保存してから下記のように実行する。時間がかかります。

$ sh ./userland_fcitx.sh


◎ 4. 途中でいくつか選択肢あり

・Debian か Ubuntu かによって若干違います。選択例は Debian の場合です。

・[More] が出たら Enter (改行) キーで進めてください。

・以下選択例です。必ずしも下記の通りでなく環境に合わせて選んでください。(番号が異なっている場合があります)

Keyboard layout: 21  (Other)
 ↓
Country of origin for the keyboard: 55  (Japanese)
 ↓
Keyboard layout: 6  (Japanese - OADG 109A)

Users to add to the netdev group: 1

Locales to be generated: 285  (ja_JP.UTF-8 UTF-8)
 ↓
Default locale for the system environment: 3  (ja_JP.UTF-8)

地理的領域: 6  (アジア)
 ↓
時間帯: 79  (東京)


◎ 5. 解像度を選択します。

~/.vncrc に解像度が書き込んであるので任意の値に変更してください。

ハイエンドスマートフォンの場合、デフォルトだと文字が小さすぎる場合があるので最初に変更しておくことをおすすめします。

$geometry = "1280x720";


◎ 6. 一旦 exit

終了して UserLAnd のメイン画面に戻ります。

$ exit


◎ 7. SSH から VNC に変更して起動し直します。

 ・UserLAnd のメイン画面に戻ったら、Debian (または Ubuntu) を長押しして「Stop App」

 ・もう一度同じ場所を長押しして「App Info」を選択し、VNC を選択 (SSH → VNC)

 ・UserLAnd のメイン画面から Debian (または Ubuntu) を起動


◎ 8. bVNC Free をまだインストールしていない場合はストアに飛ぶのでインストール

 インストール完了したらもう一度 UserLAnd から起動する


◎ 9. VNC が起動するが lxde のデスクトップにならない場合は一旦手動で起動する

 コンソールから lxsession を実行する。

$ lxsession &

エラーダイアログが1つ出ますが無視して構いません。

また下記の内容で ~/.xsessionrc を作っておく。

. ~/.profile
lxsession &


◎ 10. メニューから LXTerminal を開く

 左下のアプリケーションメニューから「システムツール」→「LXTerminal」


◎ 11. LXTerminal 内で fcitx-autostart を実行

$ fcitx-autostart


◎ 12. fcitx の設定の確認

・左下のアプリケーションメニューから「設定」→「Fcitx 設定」

・「全体の設定」タブ→「入力メソッドのオンオフ」で任意のキーを選択する

・Android 9.0 以降は CTRL + SPACE が使えないので注意。

・切り替えキーが正しく反応するかどうかは LXTerminal 上で確認できます。


●その他

もし fcitx が自動で立ち上がらない場合 (毎回手動で fcitx-autostart を呼び出さないと日本語が入力できない場合) は、自動起動に登録してください。

・左下のアプリケーションメニューから「設定」→「LXSession のデフォルトアプリケーション」
・「自動立ち上げ」タブ→ 「+Add」の欄に "fcitx-autostart" を入れてから [+Add]

細かいメニューボタンの選択は、bVNC Free の「入力モード」→「タッチパッドシミュレーション」が便利です。


関連ページ
HYPERでんち: UserLAnd

関連エントリ
Android UserLAnd で PyTorch を使う。C++ API
Huawei P30 Lite/Fire HD 10(2019) のコンパイル速度と UserLAnd
Android: UserLAnd + Termux を Note PC 代わりに使う
Oculus Quest も文章書き&開発マシンにする
Android UserLAnd の更新と VNC 画面設定
UserLAnd : Android 9.0 で Ctrl + SPACE を使えるようにする
Android Termux で日本語入力を行う / UserLAnd との併用
Android 9.0 と Bluetooth Keyboard による日本語入力
Android で動く Linux 環境 UserLAnd が XServer XSDL に対応
Oculus Go を文章書き&開発マシンにする


数ヶ月走らせていますが安定して動いています。時間を意識してドアを慌てて閉めなくても良くなり、出入りのときに余裕ができました。

● Jetson Nano (5W mode)

作成時は Windows PC を使っていましたが、コード修正無しにそのまま動くことがわかったので今は Jetson Nano を使っています。Web カメラも PC で使っていたものそのままで USB 接続です。

常時起動しているので Jetson Nano は少電力モード (5W モード) に切り替えました。ワットモニターで計測したら本当に上限 5W でした。


● Logicool HD C270

使用しているカメラは Logicool の C270 です。室内の撮影は全体的に暗いので、わかりやすいように明るさを調整しています。Windows の場合標準のカメラ アプリの設定から「プロモード(フォト&ビデオの詳細コントロールを表示)」を有効にすると明るさの調整ができるようになります。Jetso Nano では v4l-utils を使っています。

$ v4l2-ctl -d /dev/video0 -c brightness=160


●判定の改良など

ロック中に更にロックコマンドを送信するのは問題がありそうだったので、事前に状態を確認するように変更しました。これで誤認識の度に lock コマンドを発行してしまう問題がなくなります。状態を確認する分だけ若干反応は遅れます。

・状態の確認
・結果の 'locked' が false の場合のみ 'lock' command 送信

ただし稀に正しく動かないケースがあります。鍵があいているのに 'locked' に true が返っているようです。手で直接ドアの鍵をあけた場合に起こるので、おそらく「解錠→ドア閉め」の時間が短すぎて、同期される前に状態を確認しているためだと思われます。


◎解錠からドア閉めまでの時間が極めて短い場合

人間 Sesame Server 開け閉め判定プログラム
手で解錠 解錠 true
ドアを開ける 状態の同期 開いたことを認識してフラグを立てる
ドアを閉める 閉めたことを認識。locked → true が返る。何もしない
同期完了 false
↑同期が完了する前に Server の状態を調べてしまう

確実に対処するなら 'sync' コマンドが必要になるようです。

・'sync' command 送信、状態をサーバーに同期する
・状態の確認
・結果の 'locked' が false の場合のみ 'lock' command 送信

ただ sync はあまり頻繁に呼ばない方が良いらしく、この手順だと誤認識の度に何度も sync してしまう可能性があります。気持ちゆっくりドアを開ければ今のところ問題ないので sync は一旦保留としました。


●解錠コマンド

判定を遅らせる代わりに解錠のタイミングを早める方法もあります。例えば直接手で鍵を開けないで、スマートスピーカーの音声コマンドで鍵を開けるようにすると十分な同期時間を稼げます。

せっかく認識用のカメラがあるので、オートロックと同じように何らかのハンドサインを認識して鍵を開けることもできそうです。

実際に解錠用の判定コードを追加してみたのですが、テストで走らせるにはかなりリスクが高いことがわかったので諦めました。施錠 (lock) だと誤動作してもさほど影響がないのですが、解錠 (unlock) の誤動作は問題になります。認識率の問題もありますし、プログラムのちょっとしたバグでも致命的になるかもしれません。時間をかけて検証する必要があります。

Amazon Echo (Alexa) のスマートスピーカーと連動した場合も、解錠は音声コマンドだけでなく合言葉(暗証番号)も必要な仕様となっていました。やはり解錠の自動化は慎重になった方が良さそうです。


●学習データ

判定対象となった画像を自動保存します。その中から定期的に判定が間違っているものだけ追加しておりデータは徐々に増えています。学習には時間がかかるので従来どおり PC を使っています。



関連エントリ
セサミmini、Web Camera でセンサー対応オートロックを作ってみる (PyTorch)
セサミmini、スマートロックを使って1年


スマートロックの セサミ mini を便利に使っています。(前回の記事) 物理的に鍵を使う必要がなく完全にワイヤレスで済みますし、施錠操作もオートロックのおかげで不要となりました。

非常に気に入っているのですが、セサミ mini のオートロックはドアの開閉と連動しているわけではなく時限式となっています。もたもたしているとドアを閉じる前に鍵が締まってしまうこともあります。時間を長めに設定すると、今度はロックが掛かるまで待つ場合に待ち時間が長くなります。

そこで、セサミの API を使ってドアの開け閉めと連動してロックが掛かる仕組みを作ってみました。本来なら、マグネット式のセンサーを使うのが最も簡単で確実だと思います。今回は手持ちの機材だけで何とかしようと思い、折角なので Web Camera で識別させてみました。


● Sesame API

CANDY HOUSE Developer Reference

さまざまなサイトに解説がありますので参考にさせていただきました。

Sesame API Version 3 のチュートリアル
APIキー取得方法とセサミIDの確認方法

API Key を取得したら Web 呼び出しで操作することができます。さらに鍵自体の Lock / Unlock 操作には、SmartLock 本体を識別するための Device ID が必要です。Device ID は API を通じて一覧から取得することもできますし、上の解説記事を見ると Web のダッシュボードで確認することもできるようです。

以下 Python 3.x を使っています。Device 一覧の取得です。

import requests
import json

API_URL= 'https://api.candyhouse.co/public/'
API_KEY= '<API_KEY>'

result= requests.get( API_URL+'sesames/', headers={ 'Authorization': API_KEY } )
device_list= json.loads( result.text )

for device in device_list:
    print( device['device_id'] )

毎回 Device ID を取得すると時間がかかるので file にキャッシュしておきます。これでサーバーに問い合わせるのは最初の一度だけになります。

import os
import requests
import json

API_KEY= '<API_KEY>'

class SesameAPI:
    CACHE_FILE= 'cache_file.txt'
    API_URL= 'https://api.candyhouse.co/public/'

    def __init__( self ):
        self.load_cache()

    def load_cache( self ):
        if os.path.exists( self.CACHE_FILE ):
            with open( self.CACHE_FILE, 'r' ) as fi:
                self.dev_list= json.loads( fi.read() )
        else:
            result= requests.get( self.API_URL+'sesames/', headers={ 'Authorization': API_KEY } )
            self.dev_list= json.loads( result.text )
            with open( self.CACHE_FILE, 'w' ) as fo:
                fo.write( json.dumps( self.dev_list ) )

    def get_device_id( self ):
        return  self.dev_list[0][ 'device_id' ]


print( SesameAPI().get_device_id() )

Device ID が判明したので、あとは状態の確認や Lock/Unlock コマンドの送信ができます。

class SesameAPI:
    ~

    def get_status( self ):
        result= requests.get( self.API_URL+'sesame/'+self.get_device_id(), headers={ 'Authorization': API_KEY } )
        status= json.loads( result.text )
        return  status['locked']

    def send_command( self, command ):
        requests.post( self.API_URL+'sesame/'+self.get_device_id(),
            headers={ 'Authorization': API_KEY, 'Content-type': 'application/json' },
            data=json.dumps( { 'command': command } ) )


sesame= SesameAPI()

# 状態の取得
print( sesame.get_status() )

# 施錠、解錠
sesame.send_command( 'lock' )
# sesame.send_command( 'unlock' )

Lock/Unlock コマンドの実行は時間がかかるので、結果を確認したい場合はあらためて問い合わせる必要があります。問い合わせには Command 実行時に得られる Task ID を使います。

↓成功か失敗を確実に返す (待つ) 場合。

    def get_task_result( self, task_id ):
        while True:
            time.sleep( 5.0 )
            result= requests.get( self.API_URL+'action-result?task_id='+task_id, headers={ 'Authorization': API_KEY } )
            status= json.loads( result.text )
            if status['status'] == 'terminated':
                if 'successful' in status:
                    return  status['successful']
                return  False

    def send_command( self, command ):
        result= requests.post( self.API_URL+'sesame/'+self.get_device_id(),
            headers={ 'Authorization': API_KEY, 'Content-type': 'application/json' },
            data=json.dumps( { 'command': command } ) )
        task= json.loads( result.text )
        task_id= task[ 'task_id' ]
        return  self.get_task_result( task_id )


sesame= SesameAPI()
print( sesame.send_command( 'lock' ) )


●画像による判定

機械学習 (Deep Learning) を使っています。モデルは非常に簡単な CNN で PyTorch を使いました。

USB の Web Camera を使ってドアの画像を撮影します。かなり少ないですが 640x480 で 1500枚ほど。様々な時間帯で人が写った出入り時の画像も含めます。先に完全に閉じている状態とそれ以外で分類しておきます。

Web Camera の撮影画像は少々暗く、夕方以降は見えないくらい真っ暗な写真が撮れることがあります。ドアを開けた方が明るいので、暗すぎる場合は閉まっているとみなしています。性能が良い最近のスマホの方が明るく写るので、スマホを Web Camera の代わりに使うともっと精度が上がるかもしれません。

学習は 128x128 dot にしましたがもっと小さくても良いと思います。Windows の GeForce GTX1070 でおよそ 15分くらいです。(BatchSize 32, Epoch 1000 の場合)

class Model_Sesame( nn.Module ):

    def __init__( self ):
        super().__init__()
        self.c0= nn.Conv2d( 3, 32, 5 )
        self.c1= nn.Conv2d( 32, 32, 5 )
        self.fc0= nn.Linear( 32*6*6, 128 )
        self.fc1= nn.Linear( 128, 64 )
        self.fc2= nn.Linear( 64, 2 )
        self.drop0= nn.Dropout( 0.25 )
        self.drop1= nn.Dropout( 0.25 )
        self.drop2= nn.Dropout( 0.5 )
        self.drop3= nn.Dropout( 0.5 )

    def forward( self, x ):
        x= F.relu( self.c0( x ) )
        x= F.max_pool2d( x, (4, 4) )
        x= self.drop0( x )
        x= F.relu( self.c1( x ) )
        x= F.max_pool2d( x, (4, 4) )
        x= self.drop1( x )
        x= x.view( x.size(0), -1 )
        x= F.relu( self.fc0( x ) )
        x= self.drop2( x )
        x= F.relu( self.fc1( x ) )
        x= self.drop3( x )
        x= self.fc2( x )
        return  x

開け閉めの判定部分では、OpenCV でキャプチャした画像をおよそ 0.5秒に一度推論に通しています。結果は完全に閉まっているかどうかの二択です。

    def main_loop( self ):
        cap= cv2.VideoCapture( 0 )
        PREDICT_TIME= 0.5
        SLEEP_TIME= 0.2
        STEP_PREDICT= int(PREDICT_TIME / SLEEP_TIME)
        counter= 0
        while( True ):
            ret,image= cap.read()
            cv2.imshow( 'preview', image )
            counter+= 1
            if counter > STEP_PREDICT:
                self.predict( image ) # 判定
                counter= 0
            time.sleep( SLEEP_TIME )
            key= cv2.waitKey(1) & 0xff
            if key == ord('q') or key == ord('\x1b'):
                break
        cap.release()
        cv2.destroyAllWindows()

データが少なく変化も乏しいので過学習している可能性はありますが、開閉のタイミングはそれっぽく取れているようです。あとは状態が変化したタイミングを捉えて、完全に閉まったときだけ lock command を送ります。

長時間走らせていると稀に誤判定が混ざることがあります。施錠されている状態をさらに施錠し直すだけなので、誤判定が紛れ込んでも特に問題はないです。ただそのたびに API が作動したという通知が来てしまうので少々気になります。

そこで確率の差が小さいあやふやな判定はある程度取り除くことにしました。さらに閉じたときは 4回以上連続、開けたときは 2回以上連続で同じ判定が続いたときだけ状態を反映させるようにしています。

    def predict( self, image ):
        size= IMAGE_SIZE # 64
        y,x,ch= image.shape
        ns= min(x,y)
        bx= (x - ns)//2
        by= (y - ns)//2
        crop_image= image[bx:bx+ns,by:by+ns]
        resize_image= cv2.resize( crop_image, (size,size) )
        ndata= np.zeros( (ch,size,size), dtype=np.float32 )
        for iy in (range(size)):
            for ix in (range(size)):
                for ic in range(ch):
                    ndata[ic,iy,ix]= resize_image[iy,ix,ic]
        fdata= ndata * (1.0/255.0)
        fdata= fdata.reshape( (1,ch,size,size) )
        x_data= torch.tensor( fdata, dtype=torch.float32, device=self.device )
        outputs_c= self.model( x_data ).to( 'cpu' ).detach().numpy() # 推論
        oy= outputs_c[0]
        self.sum= (self.sum + oy) * 0.5
        result= np.argmax(self.sum) # 0=Open, 1=Close

        open_state= self.open_state
        if result == self.prev_result:
            self.lock_count+= 1
            if result == 0:
                if self.lock_count >= 4:
                    self.lock_count= 0
                    open_state= 0
            elif result == 1:
                if self.lock_count >= 2:
                    self.lock_count= 0
                    open_state= 1
        else:
            self.lock_count= 0
            self.capture( image ) # 状態変化時の画像の保存
        self.prev_result= result

        if open_state != self.open_state:
            if open_state == 0:
                self.send_command( 'lock' ) # コマンドの送信
        self.open_state= open_state

Web Camera を設置して main_loop() を回します。これでドアを閉じたときに連動してセサミで施錠出来るようになりました。誤判定もなくなり明るい時間帯は安定して動いています。

まだまだデータの蓄積や改良が必要なので、判定結果が変化した時の画像を次の学習のために保存しています。最適化したら Raspberry Pi や Jetson Nano あたりで動かしたいと思っています。


●まとめ

API を利用して セサミ mini でもドアの動きに連動したオートロックを実現することができました。API が使えるのは非常に大きなメリットです。無い機能も簡単に作れますし、他にも様々な応用ができそうです。

最初にも書いたのですが、実用性を考えるなら普通にマグネットスイッチなどのセンサーを使った方が良いと思います。Web Camera を使う利点としては防犯カメラを兼用出来ることくらいでしょうか。もともと学習用データ収集のつもりだったのですが、ドアの開閉に連動して出入りした人の写真がきれいに残るようになりました。


関連エントリ
セサミmini、スマートロックを使って1年
Android UserLAnd で PyTorch を使う。C++ API
RADEON (ROCm) で PyTorch を使う。C++ API
Jetson Nano で TensorFlow の C 言語 API を使う


通勤で定期券の代わりになったり財布の代わりになったりスマートフォンの役割が増えています。全く同じように、スマートロックを使うとスマートフォンを家の鍵として使えるようになります。ドアの前でいちいち鍵(物理鍵)を取り出す必要がなくなり、スマートフォン一つで事足ります。

暗闇で鍵穴を探さなくて良くなりますし、オートロックがあるのでいちいち鍵を締める必要もありません。開閉は記録が残るし通知も来ます。どこでも状態を確認できるので、施錠し忘れを気にすることもなくなります。

スマートロックの セサミmini を使い始めてからちょうど 1年になりました。いくつかトラブルにも遭遇しましたが、自分にとってはなくてはならないものとなっています。

CANDY HOUSE: SESAME mini

スマートロックにも様々なものがありますが、自分で後付できるタイプが一番お手軽です。サムターンと呼ばれる一般的な鍵タイプであれば、ドアのつまみに重なるように本体を取り付けるだけで使えるようになります。設置も両面テープを使うので、工事も特殊な工具も要りません。

スマートロックを取り付けてもこれまで通りの使い方もできます。中からは手で鍵を開けられますし、外から普通に物理鍵も使えるので操作方法は好みで組み合わせられます。


●スマートロック セサミmini でできること一覧

・スマートフォンを鍵にする
・AppleWatch を鍵にする
・オートロック
・合鍵を簡単に作ることが出来る
・解錠&施錠ログの記録と確認
・手ぶら解錠、ノック解錠(iPhone のみ)

さらに別売りの WiFi アクセスポイントを使えば

・どこにいても鍵の操作ができる
・施錠状態をどこにいてもモニターできる
・解錠&施錠が行われたときのリアルタイム通知
・音声を使った鍵の開け締め
・スマートスピーカーとか他のデバイスとの連携

など


●スマートフォンを鍵として使う

初期設定が終われば Sesame アプリを入れた iPhone や Android 端末を鍵として使うことができます。ドアの前でアプリを開き、状態が表示されたらタップするだけです。すぐドアのつまみ(サムターン)が回り始めます。

Sesame
↑この画面をタッチするだけで施錠&解錠ができる。

仕組みは Bluetooth による直結です。ドアのそばでアプリを開くと Bluetooth でセサミ本体を検索し繋がります。接続も予想よりも早く、iPhone X の場合 2~3秒ですぐ操作できる状態になります。動作も安定しており iPhone X を使う上では今の所トラブルには遭遇したことがありません。

ただ上に書いたとおり操作にはアプリを使います。アプリを開くにはスマートフォンのロックも解除しなければならないので、若干の操作と時間がかかります。オフィスビルにあるようなタッチだけで即座に反応するカードキーを想像してしまうと少々ものたりないかもしれません。鍵を開けるまでの時間はスマートロックに置き換えても短くならないので注意です。

まだ試したことがないのですが、セサミ mini には「手ぶら解錠」や「ノック解錠」という機能があるので、工夫すればもっと早く開けられる方法もあるかもしれません。

スマートロックで便利になったところはいろいろあります。例えばアプリを入れるだけで他のスマートフォンからも操作できるようになりますし、ユーザーを追加して複数人での鍵のシェアもできます。自分で好きなだけ合鍵を作ることができるわけです。

個人的に一番魅力を感じているのは持ち物を減らせることです。鍵をすぐ取り出せるところに携帯しなくて良くなりますし、スマートフォンか Apple Watch さえ忘れなければ外出してもとりあえずなんとかなります。(ただし保険として物理鍵の携帯も忘れずに)

またオートロックも非常に便利な機能です。


●かなり便利なオートロック

セサミ mini にはオートロック機能があります。鍵を開けてから指定時間経過すると自動的に鍵を締めてくれます。例えば 10秒に設定しておけば、解錠してから 10秒後に自動的に鍵がかかります。必要な操作は「鍵を開けること」だけになります。

◎外に出る場合
・手でサムターンを回して解錠
・オートロックで施錠

◎中に入る場合
・スマートフォンや Apple Watch で解錠
・オートロックで施錠

なお、セサミ mini にはドアの開閉センサーがついていないため、ドアが本当に閉まっているどうかに関わらずロックしようとします。例えば来客対応時など、ドアが開いたままでも一定時間経てばサムターンが回り始めます。

ちなみに同様のスマートロック製品である Qrio にはドアの開閉センサーがついています。こちらは開けっ放しでオートロックが発動することもなく、実際にドアを閉めたタイミングでロックがかかります。その代わり Qrio の実売価格は セサミ mini の倍くらいするので、このあたりの機能差も価格に反映されているのかもしれません。

Qrio Lock


●Apple Watch を鍵として使う

スマートウオッチである Apple Watch からも操作できます。母艦のスマートフォンを経由しているわけではなく、Bluetooh でセサミ本体と直結しているようです。そのため iPhone を持ち歩かなくても良く、Apple Watch 単体でも鍵として機能します。iPhone のバッテリーが切れた場合の予備にもなります。

使い方は本体右のサイドボタンを押して、ドックの中から Sesame を選ぶだけ。

↓右ボタンを押してこの画面がでる
Sesame

↓Sesame を選んで、この画面になったら接続できたらタップするだけ。
null

ドックに登録すると常駐しているらしくアプリの起動で待たされることはありません。すぐ Bluetooth 接続に移行します。接続そのものは iPhone より若干時間がかかりますが、繋がったあとの反応は速いです。使っている Apple Watch がかなり古い Series 2 なので、新しいモデルだと接続も速くなっているかもしれません。

また文字盤のボタンとして登録しておくと、サイドボタンの Dock から選ばなくてもワンタッチで呼び出せます。(下記画像の左下)

Sesame

スマートウォッチだと身につけていられるので忘れることが少なく、かばんやポケットからスマートフォンを取り出す必要もなくなります。その気になれば電車も支払いも家の鍵も Apple Watch だけで済ませることが可能です。

ただスマートウォッチは片手がふさがっていると操作しづらいので、荷物を持っている場合はスマートフォンを取り出した方が早いです。


●Apple Watch Series 2 を使った場合のトラブルと解決方法

実際に Apple Watch をメインの鍵として、昨年 2019年3月から長いこと使用していました。機種は Apple Watch Series 2 で、3年以上前に発売されたモデルです。

iPhone X より若干遅いものの十分期待通りに動いており操作性も悪くありません。ただごく稀に、Bluetooth 接続に失敗して接続しなくなることががありました。もちろんスマートフォンでも開けられるので、締め出されて入れなくなることはありません。この症状は Apple Watch の再起動で直ります。頻度は 1~2ヶ月に一度程度なのであまり問題ではありませんでした。

ところがその後 2019年11月頃に Series 2 用の WatchOS 6 がリリースされ、OS を更新したタイミングで困ったことが起こるようになります。なぜか Sesame の設定が消えてしまい、接続できなくなる場合があります。これが割と頻繁に発生していました。

↓この画面になり設定が消えている。いつの間にか復活している。
Sesame

いろいろ試したところ、ドックに入れているアプリが多いことが原因らしいことがわかりました。

iPhone の Watch アプリを開き、「Dock」->「よく使う項目」に入っているアプリの数をできるだけ減らしておきます。「Sesame」込で 3個程度まで減らした現在は問題も解消し、安定してつながるようになりました。

おそらくドックに登録したアプリはある程度メモリに常駐しているものと思われます。Apple Watch Series 2 は RAM 容量が少ないので、メモリ消費量が多いと動作が不安定になっていたのかもしれません。Watch OS 6 への更新によって OS の消費メモリ量が増加したか、またはデフォルトでドックに入るアプリが増えていた可能性があります。 文字盤にセサミのアイコンを登録していたことが原因だった可能性があります。

下記のように Series 3 で RAM 容量が 1.5倍、Series 4 以降は 2倍に増えているので、新しい世代の Apple Watch では特に問題がないかもしれません。

発売年 名称 CPU RAM
2015年 Apple Watch 無印 armv7a 32bit x1 512MB
2016年 Apple Watch Series 1 armv7a 32bit x2 512MB
2016年 Apple Watch Series 2 armv7a 32bit x2 512MB
2017年 Apple Watch Series 3 arm64 64bit x2 768MB
2018年 Apple Watch Series 4 arm64 64bit x2 1GB
2019年 Apple Watch Series 5 arm64 64bit x2 1GB

Wikipedia: Apple Watch


●Wi-Fi アクセスポイントと API

セサミ mini には別売りのオプションとして「Wi-Fi アクセスポイント」があります。これを設置しておくとセサミ mini でできることが一気に増えます。

「Wi-Fi アクセスポイント」は電源用 USB コネクタ直付けの非常に小さいアダプタです。セサミ mini 本体には Bluetooth しか搭載されていませんが、このアクセスポイントを通して Wi-Fi 接続できるようになります。ルーター経由でインターネットにつながるわけです。

Bluetooth の届かない範囲でも鍵の操作が可能になりますし、通知もリアルタイムで受け取れます。どこにいても鍵の状態がわかるので、戸締まりしたかどうか心配することもなくなります。

またインターネットに繋がると API を通した連携ができるようになります。スマートスピーカーから制御したり、スマートフォン単体でも Siri を使った音声操作が可能となります。iPhone のショートカット機能を使ったスクリプトの作成もできます。

Sesame
↑ショートカットへの登録

API を活用すれば、Qrio のようなドアの開閉に連動したオートロックも自作できそうです。
(2020/03/31 追記: ドアの開閉に連動したオートロックを実際に作ってみました)


●締め出しと物理キーの重要性

一度だけ鍵が開かなくなるトラブルに遭遇しました。朝は普通にオートロックで施錠していたので、その後何らかの原因で故障したのではないかと思われます。セサミ本体のバッテリー残量表示も 100% だし Bluetooth の接続も問題ないのですが、いくら操作してもモーターが回りませんでした。

締め出しをくらったのですが、保険として物理キーも携帯していたためなんとかなりました。初期の頃から Apple Watch の接続に不安定なところがあったので、念の為予備の鍵を持ち歩いていたことが功を奏しました。スマートロックを設置した場合も、予備として物理キーを持っておくことを強くおすすめします。

その後本体は保証期間内だったこともあり交換対応していただきました。サポートの対応は非常に良く、その日のうち(10分経たず)に返答があったことには驚きました。数日使えないだけでも不便を感じていたので大変助かりました。


●まとめ

かなり便利に活用しています。外出時に必要な機能をスマートフォンやスマートウォッチに集約できるのが良いです。

ただし外出時は物理鍵の携帯を強く推奨します。あくまで予備なので、いざというときのために鞄の奥に忍ばせておいたり小銭入れに入れておく程度でも十分だと思います。



AI
oga at 16:00
Android スマートフォンの上に PyTorch の開発環境を作ってみました。かなり遅いですが、電車の中で書いたコードのビルドテストをしたり、簡単な実験をするくらいには使えそうです。

以下作業メモです。

使用した端末は Essential Phone PH-1 (Snapdragon 835, RAM 4GB, Android 10)。もちろん C++ だけでなく Python からも使えます。


●UserLAnd の準備

UserLAnd を使うと Android 上に Linux 環境を作ることができます。root 不要でただの Android アプリとして動きます。今回は最小構成にするため Ubuntu + SSH Terminal を選択しました。


●PyTorch のビルド

UserLAnd の Ubuntu を起動し Terminal で作業します。または PC 等から ssh で接続することもできます。

先に更新しておきます。

$ sudo apt update
$ sudo apt upgrade -y

必要なソフトのインストール

$ sudo apt install  git cmake g++
$ sudo apt install  libopenblas-dev

Python3 の準備

$ sudo apt install  python3-dev python3-setuptools
$ sudo apt install  python3-numpy python3-cffi
$ sudo apt install  python3-yaml python3-wheel

pytorch の準備。展開フォルダは仮に ~/pytorch とします。

$ cd
$ git clone --recursive https://github.com/pytorch/pytorch
$ cd pytorch
$ git submodule sync
$ git submodule update --init --recursive

ビルドします。複数スレッド使うとメモリ不足で落ちるので MAX_JOBS=1 を指定します。

$ cd ~/pytorch
$ USE_CUDA=0 USE_CUDNN=0 BUILD_TEST=0 USE_MKLDNN=0 USE_DISTRIBUTED=0 MAX_JOBS=1 python3 setup.py build_clib

Python 向けにビルドする場合は最後の "build_clib" を "install" にしてください。

かなり時間がかかるので電源に接続したまましばらく待ちます。

もし途中で↓のようなエラーが出た場合はコードを一部修正します。

... 8x8-dq-aarch64-neon.S:662: Error: operand mismatch -- `mov V8.4s,V9.4s'


"aten/src/ATen/native/quantized/cpu/qnnpack/src/q8gemm/8x8-dq-aarch64-neon.S" の 662行~669行あたりにある

    MOV V8.4s, V9.4s
    MOV v10.4s, v11.4s
    MOV v12.4s, V13.4s
    MOV V14.4s, V15.4s
    MOV V16.4s, V17.4s
    MOV V18.4s, V19.4s
    MOV V20.4s, V21.4s
    MOV V22.4s, V23.4s

これらの行を下のように変更します。

    MOV V8.16b, V9.16b
    MOV v10.16b, v11.16b
    MOV v12.16b, V13.16b
    MOV V14.16b, V15.16b
    MOV V16.16b, V17.16b
    MOV V18.16b, V19.16b
    MOV V20.16b, V21.16b
    MOV V22.16b, V23.16b

AArch64 の NEON にはもともとレジスタ同士の move 命令がありません。mov vdest, vsrc はアセンブラ内部で「 or vdest, vsrc, vsrc 」に置き換えられます。浮動小数点数で論理演算はできないので、アセンブラによっては 4s (単精度 32bit x4 = 128bit) の型指定がエラーになってしまうのだと考えられます。これは 16b (byte 8bit x16 = 128bit) に変更すれば OK です。


● C++ から利用する

前回も書いたように ~/pytorch/torch 以下が libtorch 相当になります。

include path に

~/pytorch/torch/include
~/pytorch/torch/include/torch/csrc/api/include

link path に

~/pytorch/torch/lib

を指定してコンパイルします。必要なライブラリは libc10 と libtorch_cpu です。コンパイルオプションの指定例は下記の通り。

$ clang -L~/pytorch/torch/lib -lc10 -ltorch_cpu  torchtest.cpp -o torchtest

実行時は LD_LIBRARY_PATH が必要です。

$ export LD_LIBRARY_PATH=~/pytorch/torch/lib

一度ビルドしておけば他の AArch64 Android の UserLAnd 上でも使えます。Raspberry Pi 4 の Ubuntu Server (AArch64) でも動きました。


● Python で使う

Python の場合は "build_clib" の代わりに "install" を使います。途中でエラーが出ますが問題ありません。("bdist_wheel" は途中で止まるので保留中)

$ USE_CUDA=0 USE_CUDNN=0 BUILD_TEST=0 USE_MKLDNN=0 USE_DISTRIBUTED=0 MAX_JOBS=1 python3 setup.py install

これで import torch できるようになります。torchvision が必要な場合も同じようにビルドしておきます。

$ sudo apt install zlib1g-dev libjpeg-dev
$ git clone https://github.com/pytorch/vision.git
$ cd vision
$ MAX_JOBS=1 python3 setup.py install



関連ページ
HYPERでんち: Deep Learning

関連エントリ
RADEON (ROCm) で PyTorch を使う。C++ API
Jetson Nano で TensorFlow の C 言語 API を使う
Android UserLAnd の更新と VNC 画面設定
UserLAnd : Android 9.0 で Ctrl + SPACE を使えるようにする
Android Termux で日本語入力を行う / UserLAnd との併用
Android 9.0 と Bluetooth Keyboard による日本語入力
Android で動く Linux 環境 UserLAnd が XServer XSDL に対応
Oculus Go を文章書き&開発マシンにする
UserLAnd とブラウザ
Android 上の開発環境と UserLAnd
OS の中の Linux (WSL/Chrome OS/Android UserLAnd)
ARM CPU 上の開発環境とコンパイル時間の比較 (2) Pixel 3/UserLAnd


<<前のページ(日付が新しい方向) | 次のページ(日付が古い方向)>>