Android TV 两年来最大更新!新版本支援子母画面、新增 AI 功能

经过两年 Android TV 迎来下一个重大更新「Android TV 14」,首批搭载此作业系统的装置有望於今年稍後问世。

Android TV 14 的更新主要有三大点:节能效率、可及性、多工处理,Google 承诺新版本会带来「更敏捷且反应更灵敏的电视体验」。

Android TV 14 推出了三种新的能源模式,协助用户在效能与耗电量之间取得平衡。「最佳化」模式下,可透过 Google Cast 唤醒电视;「低耗电」模式会在电视待机时关闭所有网路功能;而「提高能量」模式则无论电视的电力状态为何,都会让 Google Home、助理和 Cast 保持在线。

新可及性的功能包括新增色彩校正、进阶文字选项和替代操控方式,并且可透过遥控器快捷键来切换这些功能,不过 Google 尚未介绍完整使用细节。

Android TV 14 将在特定电视机型上支援「子母画面」增强实作,这能让串流、视讯通话和智慧家庭应用程式,以浮动视窗的方式显示於萤幕上层。举例来说,使用者可以一边观赏电影,同时在萤幕角落观看自家监视器的即时影像。新子母画面 API 内建了「保持清楚」功能,以避免浮动视窗遮盖重要内容。

另外,Android TV 14 也稍微融入了 Gemini 模型。Gemini 将为 Android TV …

Google开发者大会後记:「Google」的意义,或许已不再只是搜寻了

文:Sisley

Google这家公司让「Google」成为了一种动词,但到了AI时代,Google一词可能已经不再是单纯的搜寻网路资讯了。有了Gemini,「Google」这个词语已经又更上一层楼,「搜寻」以及随之而来的「答案」不仅存在於网路(Web),它还可以存在於手机中的照片、影片、文件、一场会议,甚至是一通电话之中,未来更可能存在於「现实世界」里。

「Google一下」

今日登场的Google I/O中,Google展示了当强大的AI进入到各种场域(例如:单纯的网页搜寻、在Email中搜寻、在Google Photos中搜寻)等等,AI甚至可以在分析「即时」资讯之後,为你的问题提供客制化的答案。

当AI进入到搜寻页面,AI会组织搜寻结果页面(AI Overview),例如:你可以询问:「我想买一件不错的瑜伽裤」,AI就会帮你自动找到在Google Maps上可能评价超过4颗星的瑜伽裤店铺,并且自动筛选距离近,且正在营业的选项。

而当AI进入到Google Photos中,该应用程式将会再更进一步进化,你甚至可以问:「我车子的车牌号码是什麽?」AI就能从众多照片(Google Photos)中,为你找到「你的车牌号码」,而不是其他车牌的号码。甚至,你也可以问:我女儿的游泳有进步吗?该功能也会自动给出她一天天进步的照片纪录,并呈现给你。

从前,我们所说的「Google一下」,你所想像出来的场景可能是:输入几个关键字(关键字与关键字中有空格),接着会得到数十页的结果(当中还会参杂一些广告或是业配文章),有时必须花上数小时来爬梳这些结果。

但如今「Google」一词或许已经不能单指「搜寻(Search)>研究(Research)>得到答案(Answer)」这个过程了,它甚至可以简单地翻译成「询问,并得到答案」,因为AI拿掉了中间的研究部分。

原本可能有些许技术性的「搜寻」动作,也变得可以用最自然的语言直接询问就好,自数位时代开始以来,人们获取资讯与答案的门槛,又再度大幅下降了。

今日Google也在现场播出了「一镜到底未经剪辑」(学习了去年的教训,今年特别强调了这点)的demo影片,影片中,我们看到Google所谓的Project Astra,它所呈现的,就是在Google眼中,人们将可以如何使用所谓的「AI Agent」(AI超级助理),让AI在现实世界中帮你找到答案。

例如:你可以透过手机的镜头(Google Lens),让AI即时了解这个世界,透过镜头,在环视了一周办公室後,这个可以与你即时对话的AI,甚至可以帮你找到你忘了放在何处的某样东西。

当然,它也可以帮忙检查同事电脑萤幕上的程式码。

今日的Google I/O大会上,Google DeepMind的CEO Demis Hassabis和Google CEO Sundar Pichai都在强调,所有的这一切,都还只是AI所能带来的可能性的「开头」而已。

手机中的AI

那麽回到现在,手机中的AI已经可以做到什麽事情了?

Google今天也宣布了一个台湾人可能会最爱的AI功能:「打诈」,这项AI功能可以在手机装置端分析一通陌生来电,从对方的话语中判断这通电话是不是诈骗,并且即时提出示警,让接听者选择立即挂断,并且这些AI运算和分析都只在装置端上,也就是依靠Gemini AI Nano。

又例如,当你搜寻某个城市的餐厅时,这个页面可能就会列出哪些适合约会,哪些适合商务会议等等,Google正在透过Gemini AI来搞清楚使用者的真正意图,也就是说,未来搜寻会变得更加自然、流畅以及简便,在使用者需要花上大量时间来研究的情况下,AI将大幅发挥功效。

最後但最重要的,当AI进入到WorkSpace,则可以帮助使用者在来回多次的email中,直接询问AI问题来得到答案,不用再搜寻、爬梳每一封email。

「智慧回覆」也将再进化,不再只有制式的yes/no回覆,而是可以依据这些来来回回的email对话列出选项,例如A选项是答应对方某件事、B是拒绝、C则是其他想法,在使用者选择好选项後,AI便能直接写好一封「完整」的email,以便使用者一键回覆给对方。

说到这,不知各位读者有没有发现,当生成式AI工具来到WorkSpace这样的商务场合中,以往被大众所警惕的AI幻觉(hallucination)问题又该怎麽被解决?使用者们得到AI给的答案之後,如果害怕幻觉,是否又要一封封地检查事实是否正确呢?

Google …

Google 压箱宝 AI 模型「Gemini」降临!30 项评分直接超越 GPT-4V

  • 多模态 AI 模型可同时理解文字、程式码、声音、图片、影片等内容
  • 32 项 AI 测试中有 30 项评分超越 GPT-4V
  • 分 Ultra、Pro、Nano 大中小三个版本,Nano 小到可以直接装手机上
  • 不仅支援英语还能同时支援多个语种,在不同语种执行效能也能维持一致
  • 大量使用 Google 自家设计的 TPU 训练

原本 Google 传出会延期到明年才发表的全新大型语言模型「Gemini」如期在 12 月初面世!

就如外界预期,Google 呕心沥血推出的 Gemini 是「原生」多模态 AI 模型,可以同时无缝理解、操作包括文字、程式码、声音、图片、影片等多元形式的内容,像是理解图片方面,Google 宣称 Gemini Ultra 可以直接跳过从图片中使用 OCR 理解文字的步骤,就能直接图片内容。

理解能力到底有强?Google 就用了一个图中很简单的例子, 拿了两张非常简单的手绘汽车图问 …

要先锁定消费性产品?Google 延後了「GPT-4 最强敌手」Gemini 发布日期

Google 近日推迟了其用以对抗 OpenAI GPT-4 的「Gemini」的发布日期,可能要到 2024 年第一季才会准备就绪。

Google 原计画在今年 11 月向云端客户提供 Gemini 的存取权限,不过现在根据 The Information 的报导,Google 已将 Gemini 推出日期延後至 2024 年第一季。

Google 在今年 9 月推出了 Gemini 早期版本。 Google 的 Gemini 又被视为是该公司与 OpenAI GPT-4 竞争的关键产品之一,Gemini 的训练量据称是 GPT-4 的两倍之多,备受 Google 内部重视,甚至为此将两个 AI …