谷歌手势控制黑科技新进展:获准部署雷达感应传感器
谷歌推出隔空手势操作技术

谷歌推出隔空手势操作技术作者:来源:《信息化视听》2016年第06期谷歌推出隔空手势操作技术Google前沿技术研究部门ATAP日前展示了Project Soli雷达技术的最新进展。
谷歌ATAP与LG和MC R&D实验室展开合作,开发了一款可通过远距离手势操控的智能手表。
除了智能手表,其他不适宜屏幕触控交互的智能设备都可以应用这种方案。
据悉,ATAP还与音响厂商Harman展开合作,开发了一款集成Soli算法的JBL音响,可用手势完成播放、暂停和切歌等操作。
从任意角度看图像都是正面的圆筒显示器日本产业技术综合研究所近日开发出了从360度任一方向观看时图像都如同朝向正面的圆筒形显示器原型机。
据称相关技术采用独特构造的特殊透镜来实现,能够解决由显示角度造成的观看难度大及视觉死角的问题。
由于其技术本身无显示器尺寸上限制,因此有望在机场、车站、医院等公共空间及大厦墙壁上完善信息环境,提高广告宣传的传达效果,或者在大型设施的公众观看等多人同时观看的环境下提高同感及一体感。
E-Ink推出全彩电子墨水屏E-Ink发布了一款全新反射式显示屏,能够展现更加丰富的色彩内容,不过由于还不适合近距离观看,目前这一技术还只是用于引导标识。
E Ink的 Advanced Color ePaper(ACeP)技术可显示3.2万种颜色。
与其他电泳显示技术不同,在这项技术中,每个像素包含了所有色彩元素,以显示出必要的颜色。
同时,这一技术提高了分辨率、对比度以及整体显示质量。
目前,E-Ink生产的唯一一种面板尺寸为20英寸,分辨率为2,500×1,600。
美国自行车团队正在用这款AR眼镜进行训练美国自行车团队今年夏季参加里约奥运会的时候,他们将通过智能眼镜进行培训。
目前Solos已经同团队取得合作佩戴这款眼镜进行训练,通过增强现实技术在骑行过程中显示心率、节奏等相关信息。
此外Solos还能够和MapMyRide、Strava和TrainingPeaks等主流的自行车应用进行配对,提供更详实的数据支持。
实现增强现实技术下的手势控制的步骤

实现增强现实技术下的手势控制的步骤增强现实(AR)技术是一种让用户体验真实世界的技术。
而手势控制是AR中常见且重要的功能之一,它使用户能够通过手势来与虚拟世界进行交互。
本文将介绍实现增强现实技术下手势控制的步骤。
步骤一:硬件设备的选择实现增强现实技术下的手势控制,首先需要选择适合的硬件设备。
常用的硬件设备包括头戴式显示设备(如虚拟现实眼镜)、增强现实眼镜、智能手机或平板电脑等。
选择合适的硬件设备对于手势控制的稳定性和响应速度至关重要。
步骤二:内置传感器与摄像头的配置实现手势控制需要通过硬件设备的内置传感器和摄像头来获取用户的手势信息。
对于一些先进的设备,如虚拟现实眼镜,已经内置了高精度的加速度计、陀螺仪和磁力计等传感器。
而对于其他设备,可能需要通过外接传感器来实现。
此外,设备上的摄像头用于实时捕捉用户的手势动作。
步骤三:手势识别算法的选择和开发手势识别算法是实现手势控制的关键。
通过算法,设备可以根据传感器数据或摄像头捕捉到的图像来识别用户的手势动作。
传感器数据可以提供加速度、角速度和磁场强度等信息,而摄像头图像可以提供更为精细的手势特征。
根据不同的应用场景和设备性能,可以选择适合的手势识别算法,如基于模式识别、机器学习或深度学习等算法。
步骤四:数据采集和训练在选择了适合的手势识别算法后,需要进行数据采集和训练。
对于基于机器学习或深度学习的算法,需要准备一批已标记的手势数据,并将其用于模型的训练。
训练过程中,需要确保数据集的多样性和平衡性,以增加模型的鲁棒性和准确性。
步骤五:手势与交互动作的映射在手势识别算法训练完成后,需要对识别出的手势与相应的交互动作进行映射。
这可以通过定义手势与目标动作之间的关系来实现,例如将拇指向上的手势映射为放大图片的动作。
步骤六:实时手势识别和交互控制实际应用中,需要将手势识别算法应用到设备中,实现实时的手势识别和交互控制。
这可以通过设备的软件接口实现,将手势识别的结果与相应的交互动作绑定,实现用户与虚拟世界的交互。
hololens 手势交互原理

hololens 手势交互原理
Hololens是由微软开发的增强现实头戴式设备,它允许用户通
过手势交互来操控虚拟界面和与增强现实内容进行互动。
Hololens
的手势交互原理主要基于深度摄像头和传感器技术。
首先,Hololens头戴式设备配备了深度摄像头和传感器,这些
传感器能够捕捉用户的手部动作和头部姿势。
通过这些传感器,Hololens能够实时获取用户手部的位置、姿势和动作。
其次,Hololens使用了一系列预定义的手势来实现交互操作,
比如点击、滑动、捏合等。
当用户在空中做出这些手势动作时,深
度摄像头和传感器能够捕捉到这些动作,并将其转换成相应的指令。
此外,Hololens还采用了机器学习和人工智能技术,通过对用
户手势的识别和分析,不断优化和提升手势交互的准确性和灵敏度。
这样,用户可以更自然地使用手势来操作增强现实界面和内容。
总的来说,Hololens的手势交互原理基于深度摄像头和传感器
捕捉用户手部动作,预定义手势和机器学习技术来实现用户与增强
现实内容的交互。
这种技术使用户能够以自然的方式操控虚拟界面和与增强现实内容进行互动,提供了更加沉浸式的增强现实体验。
Google 新专利:手指画框就能对焦拍照

Google 新专利:手指画框就能对焦拍照
当你佩戴 Google Glass 时,只需按下镜框旁边的按钮,或者叫一声:“OK Glass, take a picture.”,就能拍照或录像。
然而,这种便利遭到了群众对其侵犯隐私的争议,因此有人将 Google Glass 称为 glasshole (偷窥镜)。
但如果要加入手势才能拍照,群众是否会更愿意接受 Google Glass?
根据 Google 上交的专利显示,下一代的 Google Glass 的拍照功能,可能要通过手势执行。
这项专利适用于头戴式可穿戴设备——例如 Google Glass,放置在眼镜支架上的照相机会一直跟踪着手指的操作,当用户用手指做出特定的手势时,就能启用设备的拍照功能。
而不同的手势对应的是不同的照片规格。
例如用两个 L 型手势,可以拍摄全景图片;如果是两只手掌相对,就能拍摄竖版的肖像照片;而将拇指和食指弯成圈,就可以拍摄圆形的照片。
但在专利说明中,并没有提到这些手势是否可以用来录像。
事实上,往 Google Glass 的拍照功能加入手势操作并不是第一次,之前 Google 也提交过用手势来点赞的专利,两只手朝着喜欢的物体摆一个“心”的形状后,就可对物体标注“喜欢”,非常适合在游览博物馆或风景名胜时,收藏自己喜欢的东西。
近期陆陆续续曝光的 Google Glass 专利大多数在一年前就已经申请,不管你将其看做Google 想挽救 Google Glass 所做的努力,或者是作为专利储备,但最后我们和 Google 都会发现,也许企业级市场更适合智能眼镜。
题图来自 Newyorker
好奇心日报 , 每个时代都有最好的媒体。
美国科学家发明高敏感度机械手指

美国科学家发明高敏感度机械手指佚名【期刊名称】《机械》【年(卷),期】2012(39)7【摘要】美国研究人员开发出一种触摸敏感度超过人手的机器人手指。
这种名为BioTac的传感器能识别随机选择的材料,准确率高达95%,超过人手的准确度。
【总页数】1页(PI0005-I0005)【关键词】美国科学家;机器人手指;敏感度;机械;发明;研究人员;随机选择;传感器【正文语种】中文【中图分类】TP242【相关文献】1.会发电的太阳能"布料"·科学家证实中微子质量·美国开发"非脂肪化"食品·我国新一代互联网关键技术获重大突破·日本实现半导体结晶光控制·科学家发现阻止衰老新法·俄发明抗癌新疗法·科学家揭示肝炎癌变秘密·私人载人太空飞船飞行成功 [J],2.美国科学家发明手指阅读器闭着眼睛也能读书 [J],3.美发射卫星探索慧星组成/美科学家开发出新型磁阻装置高灵敏创新记录/日用中子束高速摄像成功速度达千分之一秒/以色列科学家培育出杂交无毛鸡/日本国家航空实验室研制新一代超音速客机/"牙齿电话"成新宠/美企业家发明个人飞行器/四川搭乘神舟邀游太空的水稻长势良好/50万的高科技公厕投入使用/方轮自行车照样骑着跑/"宝"玩具商推出新款机器人/便携式基因解析装置问世/杭州农科所培育出巨型南瓜 [J],4.我国非药物戒毒取得重大突破/ 从太空吸收电力/ 德国科学家发现能够抑制全球变暖的微生物/ 英国考古发现4000年前的人头骨曾接受开颅手术/ 日本开发仿人集成电路/ 英采用基因疗法治愈无免疫力病童/ 澳大利亚科学家研究出微型传感器/美国科学家发明种植鱼肉方法 [J],5.一名美国科学家和两名日本科学家因发明复杂有机物有效合成方法获2010年诺贝尔化学奖 [J],因版权原因,仅展示原文概要,查看原文内容请购买。
新型手势控制传感器问世 类似于触摸屏幕的操作

新型手势控制传感器问世类似于触摸屏幕
的操作
导语:可以识别和响应手势传感器正在不断的应用在消费类产品里。
例如,使用者可以翻到显示在平板电脑上的菜单的下一页,而不必触摸屏幕。
目前手势控制传感器已经在人们的生活中逐步开始有相应的应用了,大家对手势控制传感器了解多少呢?知道手势控制传感器可以应用在哪些方面吗?下面来给大家介绍一下手势控制传感器。
手势控制传感器包含一颗集成式接近和环境光传感器,两颗安装在传感器两侧的红外二极管,使用这些元器件,通过比较来自两个发射器的红外光信号,就可以完成对手势的检测。
传感器发出的红外光被像手掌这样的物体反射回来后,就可以被接近传感器探测到。
为了区别来自各个发射器的信号,发射器进行了服用,即发射器信号被一个接一个地快速连续叠加在一起,发射器在200mA下的典型发光铅毒高达80mW/sr,可以探测到传感器上方最远25cm处的手势。
通过I2C总线接口,可以读出各个脉冲之间的接近信号,当手掌
在探测范围内,手掌会反射发射器的更多信号。
如果手掌在上面掠过,一个发射器的信号将会先于另一个发射器增加,通过分析信号强度的时间差,就可以确定是否出现手掌滑动的手势,以及出现在哪个方向桑。
可以识别和响应手势传感器正在不断的应用在消费类产品里。
例如,使用者可以翻到显示在平板电脑上的菜单的下一页,而不必触摸屏幕。
点击可以用来生成具体的选择,类似于触摸屏幕的操作,向里推和向外推可以用来放大和缩小显示内容,放大和缩小音量,或者改变背光的强度。
以上就是对手势控制传感器的相关介绍,大家是不是很想试试呢?这一传感器的出现极大的方便了人们的日常生活,有机会就去试试吧。
多模态手势识别
多模态手势识别手势是人类交流和表达的一种重要方式,通过手势可以传达丰富的信息和情感。
多模态手势识别是指通过多种传感器和技术,对人类的手势进行准确的识别和理解。
它在人机交互、虚拟现实、智能家居等领域有着广泛的应用前景。
本文将重点探讨多模态手势识别的技术原理、应用场景以及未来发展趋势。
一、技术原理多模态手势识别技术主要包括传感器采集、特征提取和分类识别三个步骤。
1. 传感器采集:采集人类手部动作信息是进行手势识别的第一步。
常用的传感器包括摄像头、深度相机、惯性测量单元等。
摄像头可以捕捉到人类手部动作在二维平面上的变化,深度相机可以获取到三维空间中物体距离摄像头的信息,惯性测量单元则可以测量到加速度和角速度等物理量。
2. 特征提取:从采集到的数据中提取出有用且能够区分不同手势的特征是手势识别的关键。
常用的特征提取方法包括形态学特征、纹理特征、运动特征等。
形态学特征可以描述手势的形状和结构,纹理特征可以描述手势表面的纹理信息,运动特征可以描述手势在时间上的变化。
3. 分类识别:将提取到的特征输入到分类器中进行分类识别是最后一步。
常用的分类器包括支持向量机、人工神经网络、决策树等。
分类器通过学习和训练,可以将不同类别的手势区分开来,并输出对应类别。
二、应用场景多模态手势识别技术在许多领域都有着广泛应用。
1. 人机交互:多模态手势识别技术可以使人与计算机之间实现更加自然和直观的交互方式。
通过对人类手部动作进行实时识别,计算机可以根据用户的意图进行相应操作,如控制游戏角色、浏览网页等。
2. 虚拟现实:多模态手势识别技术在虚拟现实领域有着广泛应用。
通过戴上虚拟现实头盔和手套,用户可以通过手势来与虚拟环境进行交互,如抓取虚拟物体、进行手势操作等。
3. 智能家居:多模态手势识别技术可以使智能家居更加智能和便捷。
用户可以通过手势来控制家电设备的开关、调节音量等,实现智能家居的自动化控制。
三、未来发展趋势多模态手势识别技术在未来有着广阔的发展前景。
gmd手势控制方案
简介GMD (Gesture Motion Detection) 手势控制方案是一种基于人体姿态识别技术的手势控制系统。
它可以通过识别用户在空中划出的特定手势,来实现对设备的控制操作。
本文档将详细介绍GMD手势控制方案的工作原理、应用场景、技术实现和未来发展方向。
工作原理GMD手势控制方案的工作原理主要包括以下几个步骤:1.采集用户输入:通过设备上的摄像头或其他传感器,采集用户的姿态数据。
2.姿态识别:将采集到的姿态数据进行特征提取和模式匹配,识别出用户所划出的手势。
3.手势解析:根据不同的手势,解析出相应的控制操作。
4.控制反馈:将解析出的控制操作反馈给设备,实现相应的控制功能。
应用场景GMD手势控制方案可以广泛应用于各个领域,以下是一些典型的应用场景:游戏控制在游戏领域,GMD手势控制方案可以用于替代传统的游戏手柄或键盘鼠标操作。
通过轻松划动手势,玩家可以实现游戏中的各种动作,如跳跃、射击、施法等。
这种新颖的交互方式可以提升游戏体验并增加游戏的可玩性。
智能家居控制在智能家居领域,GMD手势控制方案可以用于控制家中的各种智能设备,如灯光、空调、窗帘等。
用户只需划出相应的手势,就可以实现对设备的开关、调节等操作,极大方便了用户的生活。
手势输入在移动设备领域,GMD手势控制方案可以用于替代传统的触摸屏输入方式。
用户可以通过划动手势来输入文字、进行图形操作等。
这种手势输入方式不仅更加直观方便,还能节省屏幕空间,提升用户的操作效率。
技术实现GMD手势控制方案需要借助计算机视觉、模式识别以及机器学习等相关技术来实现。
以下是一些常用的技术实现方法:姿态检测与跟踪姿态检测与跟踪技术用于从用户的姿态数据中提取出重要的特征信息。
常用的方法包括基于深度学习的姿态估计算法、基于传感器数据的姿态跟踪算法等。
手势识别与解析手势识别与解析技术用于将检测到的姿态数据与预定义的手势模型进行匹配。
常用的方法包括基于机器学习的手势分类算法和基于规则的手势解析算法等。
谷歌、人工智能和超级传感器的兴起
谷歌、人工智能和超级传感器的兴起作者:暂无来源:《计算机世界》 2017年第26期作者 Mike Elgan 编译杨勇谷歌最近向开发人员展示了令人炫目的新功能——谷歌镜头(Google Lens)。
谷歌镜头最先出现在谷歌助手(Google Assistant)和谷歌相册(GooglePhotos)中,使用人工智能(A.I.)来专门识别智能手机摄像头拍摄的内容。
在谷歌的演示中,谷歌镜头不仅识别出了花朵,而且还知道是哪种花朵。
当谷歌镜头指向路由器条形码时,该演示还显示了能够自动登录到无线路由器。
最后,展示了谷歌镜头能够通过外观识别出某家公司,弹出该公司的谷歌地图卡片。
Google 镜头真的是让人眼前一亮,非常有趣。
但是从媒体评论中可以清楚地看出,人们还没有体会到这究竟意味着什么。
常见的反应是:“哦,快看!我们的手机又多了一个玩具!人工智能是不是很好玩!”实际上,谷歌让我们瞥见了通用传感的未来。
由于机器学习,现在可以仅使用一个物理传感器——摄像头,在软件中创建一百万个不同的传感器。
很显然,在谷歌的演示中摄像头起到了“超级传感器”的作用。
谷歌镜头代替了花朵识别传感器、条形码读卡器和零售商标识符,它就是一个通用的超级传感器,在本地或者在云端,由软件开发出来的人工智能“虚拟传感器”。
还记得“万亿传感器世界”吗?四年前谈到物联网(IoT)时,“万亿传感器世界”一词在IT 业界流行起来。
那些所谓的未来专家们模模糊糊地想象出以后会有万亿个微小设备,带有万亿个天线和万亿个电池(每年要换一万亿次电池)。
未来,我们会被可穿戴传感器包裹着。
所有商品和机械设备都采用RFID 芯片进行标记,并向读卡器报告它们的位置。
我们的家庭、办公室和工作场所将遍布各种专用传感器。
无处不在的人工智能和机器学习为我们勾画出了新未来,凸显我们当时的无知。
过去四年中,另一场革命颠覆了预期的“万亿传感器世界”革命,即云人工智能的兴起,它将改变一切。
雷达感应器控制原理
雷达感应器控制原理
嘿,你问雷达感应器控制原理?这玩意儿挺神奇的呢!咱就来唠唠。
雷达感应器啊,就像一个小侦探。
它能探测到周围的动静,然后做出反应。
这小侦探里面有个关键的东西,叫发射天线。
这个发射天线就像一个小喇叭,能发出一种特殊的电磁波。
这种电磁波我们看不见也摸不着,但它可厉害啦。
它会像波浪一样向四周扩散出去。
当电磁波碰到物体的时候,就会反弹回来。
这时候,雷达感应器里面的接收天线就开始工作啦。
接收天线就像一个小耳朵,能听到电磁波反弹回来的声音。
然后呢,雷达感应器就会根据接收到的信号来判断周围的情况。
如果有物体在附近移动,电磁波反弹回来的时间和强度就会发生变化。
雷达感应器就能通过这些变化来知道物体的位置、速度和方向。
比如说,在一个房间里安装了雷达感应器。
当有人走
进房间的时候,雷达感应器就会探测到这个人的存在。
它会根据人的位置和移动速度来决定要不要开灯或者打开其他设备。
如果人一直站着不动,雷达感应器可能会认为人已经离开了,然后就会把灯或者设备关掉,这样可以节省能源哦。
在一些自动门或者车库门上面也会用到雷达感应器。
当有车或者人靠近的时候,雷达感应器就会探测到,然后自动打开门。
等车或者人通过后,门又会自动关上。
这可方便啦,不用我们自己去开门关门。
哎呀,这雷达感应器的控制原理虽然有点复杂,但是真的很神奇呢!它就像一个隐形的小助手,默默地为我们服务。
下次你看到有雷达感应器的地方,可别忘了想想它里面的小魔法哦!。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
技术与市场科技前沿
2019年第26卷第2期
专家预测:2019年人工智能将加速落地
扫一下手掌即可轻松通过手脉门禁系统,无人售货柜和兜售机器人使消费者更便捷购物,智能公交可以自动驾驶、人车对话……小到穿行于城市之间的日常起居,大到酒店、餐厅、交通、商圈等智能化管理,随着人工智能(AI)技术日益成熟,这样的应用场景正在成为现实。
继2018年人工智能概念“铺天盖地”后,专家预测2019年各种人工智能技术将加速落地,人工智能应用范围将不断扩大。
深兰科技董事长、创始人陈海波近日在接受记者采访时表示,人工智能是引领新一轮科技革命和产业变革的战略性技术。
人工智能技术要更好地服务民生领域,通过“AI+”和科技赋能,使百姓可以切实体会到人工智能带来的便利。
“人工智能服务民生就是要提供能够让人们看得见摸得着的产品和服务。
”陈海波透露,目前深兰科技正在探路人工智能技术在多个领域的规模化商业落地。
除自动驾驶外,深兰科技在智能机器人、智慧交通、教育、医疗、生物智能等领域均有布局。
除民生领域外,人工智能技术也将在企业级市场获得更多应用。
联想集团副总裁、首席研究员田日辉表示,企业智能变革势在必行,然而对大部分传统企业而言,距离人工智能技术真正落地应用并且创造价值,还有许多障碍需要克服。
因此,需要降低企业应用人工智能技术的门槛,加速企业人工智能的业务化应用。
为推动人工智能技术应用和落地,近日《上海市推进“智城计划”实施方案》印发。
方案提出,聚焦人工智能+制造、医疗、交通、教育、金融、政务、安防等重点领域,为人工智能企业提供广阔应用场景,推动新技术、新产品、新模式在上海率先运用。
目标到2020年,打造6个人工智能创新应用示范区,形成60个人工智能深度应用场景。
中国信息通信研究院近日发布《人工智能发展白皮书———产业应用篇》指出,目前国内人工智能产业应用发展体系初步形成。
人工智能产品将在不断的迭代中实现较大突破,在生产生活中得到更广泛应用。
白皮书认为,人工智能能力将如同水电一样赋能各行各业,人工智能应用及产业化进程将提速。
虽然人工智能技术正在加速落地,但当前制约人工智能落地的瓶颈和短板也不容忽视。
陈海波表示,目前制约行业健康发展的最大短板就是基础研究薄弱。
发展人工智能必须加大基础研究,掌握关键核心技术,增强原创能力和应用落地能力。
中国信息通信研究院专家建议,为更好地促进人工智能产业应用,需要持续完善数据资源体系,加强医疗、交通等人工智能重点领域内合作,重视人工智能安全风险。
另外,要打造创新平台,推动产业应用,突破技术瓶颈。
(来源:新华社)
谷歌手势控制黑科技新进展:
获准部署雷达感应传感器
近日,谷歌公司获得了美国监管部门的批准,可部署一款基于雷达的动作感应设备,也就是外界熟悉的ProjectSoli项目。
美国联邦通信委员会(FCC)在周一晚间公布的命令中称,同意授予谷歌一项豁免,以高于目前允许的功率水平运行Soli传感器。
FCC称,这种传感器还可以运行在飞机上。
FCC称,这一决定是出于公众利益考虑,通过免触摸的手势技术提供创新设备控制功能。
FCC表示,Soli传感器能够使用雷达射束捕捉3D空间里的动作,实现令那些面临移动或语言障碍的人受益的免触摸控制功
1
科技前沿TECHNOLOGYANDMARKET
Vol.26,No.2,2019
能或特性。
谷歌称,Soli传感器允许用户按压拇指和食指之间的虚拟按钮,或者通过拇指和食指之间的摩擦实现虚拟拨号。
该公司表示,即便这些控制是虚拟的,但是互动的感觉是能够真实体验到的,有响应,因为触觉传感器可以提供手指触摸的反馈信息。
谷歌表示,这种虚拟工具能够接近人类自然手部动作的精度,传感器可以嵌入到可穿戴设备、手机、电脑和汽车中。
去年3月,谷歌向FCC申请运行在57~64GHz频段的短距离Soli互动动作传感雷达,功率水平与欧盟电信标准协会的标准一致。
Facebook对此向FCC表达担忧称,在这一频段以更高功率运行的Soli传感器可能与其他现有技术存在兼容问题。
经过讨论后,谷歌和Facebook在9月份联合对FCC表示,他们认为Soli传感器能够在不产生干扰的情况下以高于目前允许的功率水平运行,但是仍低于谷歌此前提议的功率水平。
Facebook在9月份对FCC表示,预计将有各种采用新雷达设备的用例出现,包括Soli。
Soli设备可以运行在飞机上,但必须遵守美国联邦航空管理局对便携电子设备的规定。
更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。
想看深度报道,请微信搜索“iFeng科技”。
(来源:凤凰科技网)NASA取样飞船成功环绕小行星Bennu飞行
美国航空航天局小行星取样航天器OSIRIS-Rex(源光谱释义资源安全风化层辨认探测器)已开始围绕目标小行星飞行,创下航天器围绕飞行的最小天体新记录。
北京时间1月1日凌晨3:43,OSIRIS-Rex引擎点火8秒钟,开始进入直径约1640英尺(500米)的近地小行星Bennu的轨道。
亚利桑那大学的OSIRIS-REx首席调查员但丁·劳蕾塔(DanteLauretta)在一份声明中表示,“团队完美完成了轨道进入操作,续写了之前的辉煌。
进入Bennu轨道是一项惊人的成就,我们的团队已经为之进行了数年准备。
”
OSIRIS-Rex于2018年12月3日正式到达Bennu。
过去4周中,任务团队对Bennu进行了各种测量,确定了其质量,绘制了详细地图。
OSIRIS-Rex副首席调查员海瑟·以挪士(HeatherEnos)去年12月早些时候向媒体表示,在尝试进入Bennu轨道前必须完成这些测量工作,因为“围绕一个几乎没有引力的天体飞行是一项极具挑战性的任务。
因此,我们必须获得更多信息才能完成后续任务”。
之前,航天器围绕飞行的最小天体是直径为2.5英里(4.1公里)的Comet67P,欧洲空间局的罗塞塔号航天器在2014-2016年间围绕它飞行。
OSIRIS-Rex还创下一个记录,围绕小天体飞行的轨道最低。
任务团队成员称,OSIRIS-Rex飞行轨道距离Bennu表面仅约1英里(1.6公里)。
造价8亿美元的OSIRIS-REx航天器发射时间为2016年9月,其主要目标是帮助研究人员更好地了解太阳系早期的演化,揭示Bennu等富含碳元素的小行星在地球生命起源过程中的作用。
这些信息将主要来自对“原生态”Bennu样本的分析。
2020年年中,OSIRIS-Rex将在Bennu上取样,并于2023年将样本送回地球。
(来源:凤凰科技网)2。