比较手势,AI识别Emoji,在浏览器上奔跑:开源,推特2.8万赞-量子比特
用一只手的手势识别AI,如何成为一场秀呐。
不断变换姿势,能实时输出Emoji,大概很走秀:
是守卫(错误),是来自『星际旅行』『瓦肯』的举手礼。因为不怎么被使用,所以做起来很难。
尽管如此,AI还是机智地认识到。另外,即使在浏览器上行驶,也几乎没有延迟。
AI的父亲,名字是Nick Bourdakos(简称尼克),是来自IBM的程序猿。
尼克拿出自己的调教成果推特,2.8万好啊:
△ 666
尼克使用TensorFlow.js,实时识别无压力。
他把算法开源,说大家都可以试试。
半个小时就可以了
尼克这个模型简单的说就是SSD-MobileNet。
MobileNet是一种分类,SSD是目标检测,搭配食用也是一种常规方法。
他在云上的GPU上训练。免费的k80、30分钟就训练好了。
开始训练前,要准备好数据:AI吃显示的手势图。
准备好后,安装模型吧:
1$ npm install -g cloud-annotations
然后你就可以开始训练了:
1$ cacli 2┌─────────────────────────────┐ 3│ (C)loud (A)nnotations (CLI) │ 4│ version 1.0.12 │ 5└─────────────────────────────┘ 6 7Usage: cacli lt;commandgt; 8 9where lt;commandgt; is one of:10 init Interactively create a config.yaml file11 train Start a training run12 logs Monitor the logs of a training run13 progress Monitor the progress of a training run14 list List all training runs15 download Download a trained model1617cacli lt;cmdgt; -h quick help on lt;cmdgt;
当然,不是必须使用云,也不是必须使用GPU。即使有CPU也能调教AI,所以要花几个小时吧。
训练结束,你必须跑浏览器。GitHub项目提供了一个脚本,可以将其转换为TensorFlow.js模型。
将模型添加到React App。
最后,写一句nmp start,在浏览器中打开http://localhost:3000。
耶,这样你就可以对着屏幕自由挥手指了。你的AI理解:
当然,正是这种机智的AI,并不是只能识别手指。
喝点什么
只看你给AI投了什嚒样的数据。
曾经,尼克给AI锻炼了辨别汽水的眼睛。
第一题:一条雪碧,一条Canada Dry,都是绿色的。
无论是换个位置,还是躺在瓶子身上,AI都不会迷路。定格为:
第二题:提高难度,两瓶都是Mountain Dew,一瓶一般一瓶低糖。
AI依然清晰,毫不犹豫。
无论是辨别手势,还是辨别汽水,都不会失去水平。
那么问题来了,你想让AI识别什么。
想好了就开始调教吧,代码在这里:
https://github.com/cloud-annotations/training/
P.S.推特在评论区域,有表示Easy的独自测试成功的伙伴。
◆识别结果显示为Emoji就完美了
-结束了