这个免费 App 很无聊但我真的看跪了

如果大家之前有看小雷写的 ChatGPT 文章,应该会对这个新鲜前沿的自然语言模型,有个大概了解。

前几天,小雷也借着 GPT-4 发布的热度,和大伙盘点了,那些目前已经接入 ChatGPT AI 且成功落地运行的应用。

和很多人预料的一样,随着 ChatGPT 接口的开放,很多公司得以调用其能力,让自家产品如虎添翼。

比如有人开发【视频总结】网站,在你没空看长视频时,帮你在几秒内总结出视频核心主题。

把看不懂,或者不想全部看完的 PDF 文档扔进去,它能给咱们提取、定位和总结信息。

事实也是如此,很多调用 ChatGPT API 的产品,本质上还是往生产力和效率上内卷。

src=以至于,小雷身边一些在互联网公司做文案策划的朋友,开始担心本职要被 AI 所替代。

恰好我最近看到,有一家专注于做盲人公益 App 的公司,就把自家 App 和 GPT-4 技术相结合,推出了Virtual Volunteer 功能。

src=有网友看到这个新功能后,都忍不住发出感叹:这才是 ChatGPT 的正确打开方式。

这些咱们眼中,随随便便就能干成的事儿,盲人可能要花大半天熟悉环境,才能不出差错地完成。

如果这时候,能有另一双眼睛,来帮助盲人朋友们观察世界和提供建议,生活肯定会方便得多。

src=在很长一段时间里,这款 App 都保持着相当单调,但又实用的运营策略。

由于 App 本身是公益性质的,加上主要使用人群是盲人,所以软件界面设计做得极其简洁。

src=只要大伙有善心和耐心,随时都可以成为志愿者,在盲人的视频通话请求中,帮助他们完成某些任务。

比如盲人在过马路时,不清楚道路状况,这时候就能通过 Be My Eyes,找到有空的志愿者帮忙看路。

毕竟志愿者们不是工作人员,也得在现实生活中,和各种琐事对线,被工作占据时间。

所以目前的情况是,Be My Eyes 虽然能很大程度上,帮助盲人辨别环境事物。

相比 GPT-3.5 更先进,GPT-4 能处理更复杂的语言任务,这都是新模型的基本操作 …

比如发送下面这张图片给 AI 模型,问她有啥好笑的地方,它真的能理解图片,并根据问题来回答我们。

要是把这模型集成到咱们的 App 上,不就能做到 24 小时为盲人识别环境物体了吗?

这样一来,盲人用户随时都可以发送图片给 App 里的虚拟志愿者,让它识别照片里有什么物品。

如果 AI 没能提供满意的答案,用户还能点击底部的【寻求真人志愿者】帮助,App 会立刻帮盲人联系其他志愿者。

src=用过 ChatGPT 的小伙伴们都知道,提供建议只是它最基础的功能。

比如,把一棵树拍下来发给 AI,它不仅识别正确,还会问用户:你想近距离看还是换个角度看?

src=在 GPT-4 模型的加持下, 虚拟志愿者 还能当图片翻译来用。

有一位盲人去超市购物,拿起一瓶中国制造的陈年花雕酒,接着拍照发给虚拟志愿者。

主流的百度地图和高德地图,只能给咱们提供一个大的路线框架,要是进入到室内,地图 App 就无能为力了。

而接入 GPT-4 的 Be My Eyes,如今能做到很精确的室内路线导航。

只需把图片拍下来,发给 虚拟志愿者 ,他会给用户解释跑步机的具体摆放位置。

src=在坐地铁这一出行场景中, 虚拟志愿者 也能通过用户拍下来的地铁路线,提供详细的途径站点。

等以后 App 完善并大面积铺开,盲人出行将会方便得多,很多事儿拍个照就能解决,无需走两步问一人。

src=更重要的是,这个功能对所有使用 App 的盲人免费开放,而 API 的接口费用,则由公司自行承担 …

src=小雷仍记得 ChatGPT 刚被推出时,满世界都在为此欢呼,直呼这是真正能改变世界的 AI。

但回过头一看,居然有公司把 GPT-4 的特性,应用在了辅助盲人识别环境的场景上,这何尝不是科技造福人类的一大表现呢?

小雷瞅见,在 Be My Eyes 官宣该新功能的评论区下,聚集了一大批夸夸党。

src=而小雷则有个不成熟的想法,如果能把 虚拟志愿者 的功能移植到智能眼镜上,说不定体验会更加炸裂。

假如以后 GPT-100 技术更先进了,能实时识别每一帧的画面并描述出来。

接着让盲人带上具有 GPT-100 特性的智能眼镜,再配合蓝牙耳机,把 AI 看到的画面,用语言转述给盲人。

当然啦,实现实时画面识别,是需要超高算力支撑的,目前的 ChatGPT 也还没做到这个程度。

但总的来说,科技的发展,确实让咱们的生活变得更美好了,希望以后能有更多无障碍应用出现吧。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注