智能机器人材料3

智能机器人材料3
智能机器人材料3

2013 10th International Conference on Ubiquitous Robots and Ambient Intelligence (URAI) October 31-November 2, 2013 / Ramada Plaza Jeju Hotel, Jeju, Korea
Emotional Gait Generation Method based on Emotion Mental Model - Preliminary experiment with Happiness and Sadness Matthieu Destephe1, Kenji Hashimoto2 and Atsuo Takanishi3
Graduate School of Science and Engineering, Waseda University, Tokyo, Japan 2 Faculty of Science and Engineering, Waseda University, Tokyo, Japan 3 Department of Modern Mechanical Engineering & Humanoid Robotics Institute, Waseda University, Tokyo, Japan (Tel : +81-3-3203-4394; E-mail: contact@takanishi.mech.waseda.ac.jp)
1
Abstract – Designing humanoid robots able to interact socially with humans is a challenging task. If we want the robots to be actively integrated in our society, several issues have to be taken in account: the look of the robot, the naturalness of its movements, the stability of its walk, the reactivity it might have with its human partners. We propose to improve the reactivity of the robot by using a emotional mental model in order to generate emotional gait patterns. Those patterns will help the understanding of any emotional message conveyed between a human and a robot. We propose a novel emotional gait generation method based on the Emotion mental model. We did preliminary experiments with the Happiness and Sadness emotions and with different intensities. Keywords - Motion Generation, Emotion, Biped Robot, Social Robotics
1. Introduction
Humanoid robots are designed to interact with people in their daily life and at any age, as soon as kindergarten or as late as nursing home. Advanced robots such as robot companions, robot workers, etc., will need to be able to adapt their behavior according to human feedback. For humans it is important to be able to give and to be given such feedback in a natural way, e.g., using emotional expression. Expressive robots can act as caregivers for children, with or without disabilities, and help their emotional development and wellbeing through emotive interaction. Therefore the ability of expressing emotions is important to facilitate intuitive human robot interaction. Moreover, the adaptation of the robot movements to the interaction context is necessary in order to create an interaction as natural and beneficial as possible. In this context, several emotion capable robots were developed along the years. For example, the robot Kismet was designed to simulate emotion and assess the affective intent of the caregiver [1]; NAO a small humanoid (58 cm) is often used in Human Robot Interaction (HRI) studies with children [2]; and the Waseda KOBIAN (fig. 1), designed by the applicant's team, combines a face capable of human-like expressions (24 DoF) and the bipedal locomotion ability. Preliminary studies on KOBIAN showed that whole-body posture clearly improves the emotion recognition [3].
However, if we want to perform a smooth and natural Human Robot Interaction, it necessitates a dynamic interaction between the participants with feedback, which could be visual, audible or tactile. Most of the current robots are only focused on the facial expressions and use rarely their limbs [4-5]. It was showed that the use of whole-body to express emotions improves the recognition rate of the emotions, and thus could increase the understanding and feedback during an interaction. In the case where movements are used for the interaction, they are usually fixed and follow a pre-determined pattern. This means that the robot will follow the same stimuli-response pattern. However, emotions are known to be dependent on several factors such as interaction context, culture, age, and gender. Without dynamic adaptation, after some time, the human partner will become progressively bored and the human implication in the interaction will drop. Additionally, the emotive walking research is an innovative field of research which stays mainly unexplored. In this paper, we propose an emotional gait generation method based on the Emotion mental model [6]. After a brief literature review in section 2, we describe our robot platform, the emotional mental model and a new emotional gait generation method in section 3. We present an experiment in the section 4 and we conclude and comment our work in the section 5.
2. Related works
2.1 Humanoid robots Among human sized humanoids robots, just a few are capable of expressing emotions. HRP-4C is a geminoid which can express pre-programmed facial emotions but cannot walk [7]. ASIMO [8] and WABIAN-2RII [9] are able to walk but do not have emotion expression capabilities. KIBO [10], developed by KIST, can express facial emotion expression but this capability was not assess by research. KOBIAN-2R [11], developed at Waseda University, is able to walk and express emotions not only with its face but also with its whole body [13]. 2.2 Emotion models Emotion models can be classified in three categories: appraisal, a categorical or a dimensional approach. The appraisal approach states that our appreciation of events (appraisal) determines the reaction to those events and it is
978-1-4799-1197-4/13/$31.00 ?2013 IEEE
86

unique to each individual. The categorical approach uses discrete labeling in order to define emotion. The dimensional approach, instead of defining emotion with a label or with a reaction to an event, uses different dimensions (for ex: pleasure, dominance, arousal, certainty, etc.) to define an emotion. The values of all the parameters will determine the emotion. In the robotics community, the dimensional approach with the well known Pleasure-Arousal-Dominance (PAD) model [13-14].
eyelids, 7-DoFs for lip, and 1-DoF for jaw) which can perform hundreds of facial expressions. KOBIAN-R has 7-DoFs anthropomorphic arms consisting of a shoulder part (pitch, yaw and roll axis), an elbow part (pitch axis), and a wrist part (pitch, yaw and roll axis). The system configuration of KOBIAN-R is presented in the Fig. 3. KOBIAN-R's control system is a hybrid of a centralized control system in the body with a main PC (CPU: Pentium M 1.6GHz, RAM: 2GB, OS: QNX Neutrino 6.3.0) and a distributed control system in the head with the main PC and 7 motor controller units.
3. Methods
3.1 Humanoid platform: KOBIAN-R
Fig. 3. KOBIAN-R System Configuration 3.2 Emotional mental space A. Basic description Fig. 1. KOBIAN-R Miwa et.al developed a mental model for humanoid robot [6]. The flow of information of external stimuli and robot's inner state is presented in Fig. 4. Using that model, the emotions "felt" by a robot can change dynamically according to external stimuli captured by its sensors (i.e: heavy sound, slap, odor of alcohol) and the robot's personality. The Mental Dynamics, which are the mental changes caused by internal and external stimuli, is extremely important for the emotional expression. The structure of the mental model follows a simplified human brain model which has three layers: reflex, emotion and intelligence (Fig. 4).
Z???? W??????????
??? Fig. 2. KOBIAN-R DOF configuration
In 2010, we have developed Emotion Expression Biped Humanoid Robot KOBIAN-R (Fig. 1) which is capable of both performing bipedal walking and facial expression. It was created as a combination of the humanoid robots WE-4RII [15] and WABIAN-2R [9], integrating walking capability of WABIAN-2R with the emotion capable upper body of WE-4RII. This robot has 65-DoFs (Fig. 2) and its total weight is 62 kg. It has two CCD camera, 2 six-axis sensors in its feet. An embedded computer controls the motion and it can be operated without external source of power thanks to its batteries. The head is equipped with 24-DoFs (8-DoFs for eyebrows, 5-DoFs for
^?????? W?????????? Z?????????? ^??????
?????? /??????????? Z????? Z???? ??????? ??????????
????????? W?????????? ??????? D?????
Fig. 4. Basic information processing structure
87

The emotion mapping is represented by 3 dimensions (Activation, Pleasantness and Certainty) (Fig. 5). The Activation axis represents the degree of activity of the robot and indicates how often the external stimuli information are updated. The Pleasantness qualifies subjectively the overall experience as positive (> 0) or negative (< 0). The Certainty axis describes how much the robot trusts the information given by its sensors. Seven basic emotions are mapped in this space (Fig. 5).
???????? ????????? ???? ?????? ^???????
3.3 Emotional gait generation method A. Motion Capture We asked two professional, Japanese actors (each 22 years old, one male and one female) to perform several types of emotive walking (sadness, happiness, anger and fear) with different intensities (low, middle, high, and exaggerated) [16]. The actors have been instructed a few days ahead of the experiment to prepare a scenario and to perform the first three intensities in such a way that they would correspond to natural occurrences of emotion expression. The exaggerated intensity on the other hand should be performed with extravagant theatricality, broad gestures and overplayed expressions, comparable to emotions expressions seen in plays and theaters. From the motion recordings, we extracted the step height (height from the ankle to the ground), step length (length from right heel to left heel), velocity, head pitch, shoulder pitch and waist pitch. We chose those values as parameters for the representation of the emotional walking patterns. The motion capture values are normalized in order to be usable by the robot. B. Emotional Gait Parameters Our motion pattern generator can take as input (usually by hand) among others the following seven parameters: step length, step height, phase duration, head pitch, shoulder pitch, elbow pitch, waist pitch. From the data captured [16], we extract values for the previous parameters. We use for each parameter a quadratic function in order to model their evolution as the emotional intensity increases (Eq.1 and Eq. 2). Given x, an intensity value along the Activation axis in the range of [-1, 1], H and S, two 3 x 7 vectors (3 parameters for each quadratic equation, 7 parameters)
,???????? W??????????? ^????
?????? s????? E &???
^?ě???? ^????
Fig. 5. Emotional Mental space The first robot which used this model was WE-4RII, which was able to change its mental state according to the external (vision, smell, hearing, tactile sensors) and internal stimuli (personality), and expresses its emotion using facial expressions, facial color and body movement. The second is KOBIAN-R. B. Emotion Vector and Equations of Emotion The Emotion Vector E is described the Equations of Emotion if the robot senses any stimuli with its sensors. The internal mental dynamics is similar to the evolution a human mind might have. This dynamics is expressed by equations similar to the equation of motion. The equations of emotion were expended into the second order differential equation which modeled the equation of motion (Fig. 6).
H a x2 + Hb x + H c = 0
i i i
(1) (2)
S a x 2 + Sb x + S c = 0
i i i
Along the Activation axis, low intensity values range between -0.25 and -0.75, middle values between -0.75 and 0.25, high values between 0.25 and 0.75.
4. Experiment
In order to verify our emotional gait generation, we focused on two emotions: Happiness and Sadness. We also chose 3 intensities: low, middle, high. We performed two simulations with Matlab, one for each emotion and the patterns generated are shown with our pattern simulator. We made the emotion state of the robot change every 6 steps. We constrained the Certainty and Pleasantness in order to obtain the desired emotions. Figure 7 and Figure 8 represent respectively the Happy and the Sadness we obtained. From left to right, different intensities are represented: low, middle and high. Fig. 6. Emotion Vector
88

Fig. 7. Happy (low, middle, high)
Fig. 8. Sadness (low, middle, high)
5. Conclusion
In this paper we proposed a novel emotional gait generation method based on a emotion mental model we had developed. The gait is subject to change according to emotional intensity. We simulated several emotional gaits with different intensities. The work was done in simulation and we plan to use the generated patterns with the real KOBIAN. We also plan to use the other emotions and create a complete framework.
Acknowledgement
This work was supported in part by Global COE Program "Global Robot Academia", MEXT, Japan. It is also partially supported by SolidWorks Japan K.K. and DYDEN Corporation The High-Performance Physical Modeling and Simulation software MapleSim used in our research was provided by Cybernet Sys-tems Co.,Ltd. (Vendor: Waterloo Maple Inc.). This study was conducted as part of the Research Institute for Science and Engineering, andas part of the humanoid project at the Humanoid Robotics Institute, both at Waseda University.
References
[1] C. Breazal, Designing sociable robots: MIT press, (2002). [2] P. Baxter, T. Belpaeme, and L. Ca?amero, “Long-term human-robot interaction with young users,”
IEEE/ACM Human-Robot Interaction 2011 Conference, (2011) [3] M. Zecca, Y. Mizoguchi, K. Endo, F. Iida, Y. Kawabata, N. Endo, K. Itoh, A. Takanishi, , "Whole body emotion expressions for KOBIAN humanoid robot — preliminary experiments with different Emotional patterns —," IEEE RO-MAN 2009, pp.381-386, (2009) [4] T. Hashimoto, et al. "Development of the face robot SAYA for rich facial expressions." IEEE SICE-ICASE, (2006) [5] M. Saerbeck, C. Bartneck. "Perception of affect elicited by robot motion." ACM/IEEE HRI, pp 53-60, (2010). [6] H. Miwa T. Umetsu A. Takanishi H. Takanobu: “Robot Personality based on Equations of Emotion defined in the 3D Mental Space,” IEEE International Conference on Robotics and Automation, pp. 2602-2607, (2001). [7] K. Kaneko, F. Kanehiro, M. Morisawa, K. Miura, S. Nakaoka and S. Kajita, “Cybernetic Human HRP-4C”, Proc. of 9th IEEE-RAS International Conference on Humanoid Robots, pp. 7-14, (2009). [8] https://www.360docs.net/doc/3d8403175.html,/ASIMO/ [9] Ogura, Yu; Shimomura, K.; Kondo, H.; Morishima, A.; Okubo, T.; Momoki, S.; Hun-ok Lim; Takanishi, A., "Human-like walking with knee stretched, heel-contact and toe-off motion by a humanoid robot," IEEE/RSJ IROS, pp.3976-3981, (2006) [10] http://irobotics.re.kr/eng_sub1_4 [11] N. Endo, A. Takanishi, "Development of Whole-body Emotional Expression Humanoid Robot for ADL-assistive RT services," Journal of Robotics and Mechatronics Vol.23 No.6, Fuji press, (2011). [12] T. Kishi, et al. “Impression Survey of the Emotion Expression Humanoid Robot with Mental Model Based Dynamic Emotions.”, IEEE-RAS International Conference on Robotics and Automation (ICRA), pp. 1655-1660, (2013) [13] Saerbeck, M., & Bartneck, C., “Perception of affect elicited by robot motion”, ACM/IEEE HRI, pp. 53-60, (2010). [14] Park, J. W., Kim, W. H., Lee, W. H., Kim, J. C., & Chung, M. J. , “How to completely use the PAD space for socially interactive robots”, . IEEE ROBIO, pp. 3005-3010), (2011). [15] K. Itoh, et al., “Mechanical Design of Emotion Expression Humanoid Robot WE-4RII” Proc. of 16th CISM-IFToMM Symposium on Robot Design, Dynamics and Control, pp. 255-262, (2006). [16] M. Destephe, T. Maruyama, M. Zecca, K. Hashimoto, A. Takanishi, "The Influences of Emotional Intensity for Happiness and Sadness on Walking," IEEE Engineering in Medicine and Biology Society, EMBC, (2013)
89

一种智能机器人系统设计和实现.

一种智能机器人系统设计和实现 我们从广泛意义上理解所谓的智能机器人,它给人的最深刻的印象是一个独特的进行自我控制的"活物".其实,这个自控"活物"的主要器官并没有像真正的人那样微妙而复杂。智能机器人具备形形色色的内部信息传感器和外部信息传感器,如视觉、听觉、触觉、嗅觉。除具有感受器外,它还有效应器,作为作用于周围环境的手段。这就是筋肉,或称自整步电动机,它们使手、脚、长鼻子、触角等动起来。我们称这种机器人为自控机器人,以便使它同前面谈到的机器人区分开来。它是控制论产生的结果,控制论主张这样的事实:生命和非生命有目的的行为在很多方面是一致的。正像一个智能机器人制造者所说的,机器人是一种系统的功能描述,这种系统过去只能从生命细胞生长的结果中得到,现在它们已经成了我们自己能够制造的东西了 嵌入式是一种专用的计算机系统,作为装置或设备的一部分。通常,嵌入式系统是一个控制程序存储在ROM中的嵌入式处理器控制板。事实上,所有带有数字接口的设备,如手表、微波炉、录像机、汽车等,都使用嵌入式系统,有些嵌入式系统还包含操作系统,但大多数嵌入式系统都是是由单个程序实现整个控制逻辑。嵌入式技术近年来得到了飞速的发展,但是嵌入式产业涉及的领域非常广泛,彼此之间的特点也相当明显。例如很多行业:手机、PDA、车载导航、工控、军工、多媒体终端、网关、数字电视…… 1 智能机器人系统机械平台的搭建 智能机器人需要有一个无轨道型的移动机构,以适应诸如平地、台阶、墙壁、楼梯、坡道等不同的地理环境。它们的功能可以借助轮子、履带、支脚、吸盘、气垫等移动机构来完成。在运动过程中要对移动机构进行实时控制,这种控制不仅要包括有位置控制,而且还要有力度控制、位置与力度混合控制、伸缩率控制等。智能机器人的思考要素是三个要素中的关键,也是人们要赋予机器人必备的要素。思考要素包括有判断、逻辑分析、理解等方面的智力活动。这些智力活动实质上是一个信息处理过程,而计算机则是完成这个处理过程的主要手段。 机器人前部为一四杆机构,使前轮能够在一定范围内调节其高度,主要功能是在机器人前部遇障碍时,前向连杆机构随车轮上抬,而遇到下凹障碍时前车轮先下降着地,以减小震动,提高整机平稳性。在主体的左右两侧,分别配置了平行四边形侧向被动适应机构,该平行四边形机构与主体之间通过铰链与其相连接,是小车行进的主要动力来源。利用两侧平行四边形可任意角度变形的特点,实现自适应各种障碍路面的效果。改变平行四边形机构的角度,可使左右两侧车轮充分与地面接触,使机器人的6个轮子受力尽量均匀,加强机器人对不同路面的适应能力,更加平稳地越过障碍,并且更好地保证整车的平衡性。主体机构主要起到支撑与连接机器人各个部分的作用,同时,整个机器人

人工智能与机器人教学教材

人工智能与机器人

1 1.机器人定义的三个共有属性是:有类人的功能、根据人的编程能自动的工作、人造的机器或机械电子装置。 2.简述机器人的发展史? 1954年美国人(George C. Devol)乔治·德沃尔制造出世界上第一台可编程的机器人,并在1956年获得美国专利。 1959年德沃尔与美国发明家约瑟夫·英格伯格联手制造出第一台工业机器人。 1960年,Conder公司购买专利并制造了样机。 1961年,Unimation公司(通用机械公司)成立,生产和销售了第一台工业机器“Unimate”,即万能自动之意。 1962年,美国万能自动化(Unimation)公司的第一台机器人Unimate在美国通用汽车公司(GM)投入使用标志着第一代机器人的诞生。 1963年麦卡锡则开始在机器人中加入视觉传感系统。 1965年 MIT推出了世界上第一个带有视觉传感器。 1967年, Unimation公司第一台喷涂用机器人出口到日本川崎重工业公司。 1968年,第一台智能机器人Shakey在斯坦福研究所诞生。 1972年,IBM公司开发出直角坐标机器人。 1973年,Cincinnati Milacron公司推出T3型机器人。 1978年,第一台PUMA机器人在Unimation公司诞生 1998年世界著名玩具厂商丹麦乐高(LEGO)公司推出机器人(Mind-storms)套件,让机器人制造变得跟搭积木一样, 1999年日本索尼公司推出犬型机器人爱宝(AIBO)。 2002年5月2日本田制造的名叫阿西(Asimo)四英尺高的白色机器人摇响开市铃声,摇响了机器智能时代的开始。 2006年6月,微软公司推出基于Windows的开发环境,用于构建面向各种硬件平台的软件---Microsoft Robotics Studio,试图实现机器人统一的标准或平台。

智能机器人的现状和发展趋势

智能移动机器人的现状和发展 姓名 学号 班级:

智能移动机器人的现状及其发展 摘要:本文扼要地介绍了智能移动机器人技术的发展现状,以及世界各国智能移动机器人的发展水平,然后介绍了智能移动机器人的分类,从几个典型的方面介绍了智能移动机器人在各行各业的广泛应用,讨论了智能移动机器人的发展趋势以及对未来技术的展望,最后提出了自己的建议和设想,分析我国在智能移动机器人方面发展并提出期望。 关键词:智能移动机器人;发展现状;应用;趋势 1引言 机器人是一种可编程和多功能的,用来搬运材料、零件、工具的操作机,或是为了执行不同的任务而具有可改变和可编程动作的专门系统。智能移动机器人则是一个在感知 - 思维 - 效应方面全面模拟人的机器系统,外形不一定像人。它是人工智能技术的综合试验场,可以全面地考察人工智能各个领域的技术,研究它们相互之间的关系。还可以在有害环境中代替人从事危险工作、上天下海、战场作业等方面大显身手。一部智能移动机器人应该具备三方面的能力:感知环境的能力、执行某种任务而对环境施加影响的能力和把感知与行动联系起来的能 力。智能移动机器人与工业机器人的根本区别在于,智能移动机器人具有感知功 能与识别、判断及规划功能[1] 。 随着智能移动机器人的应用领域的扩大,人们期望智能移动机器人在更多领 域为人类服务,代替人类完成更复杂的工作。然而,智能移动机器人所处的环境 往往是未知的、很难预测。智能移动机器人所要完成的工作任务也越来越复杂; 对智能移动机器人行为进行人工分析、设计也变得越来越困难。目前,国内外对 智能移动机器人的研究不断深入。 本文对智能移动机器人的现状和发展趋势进行了综述,分析了国内外的智能 移动机器人的发展,讨论了智能移动机器人在发展中存在的问题,最后提出了对 智能移动机器人发展的一些设想。 1

智能机器人的发展历史及现状

课程序号: 3908 《机器人技术基础》 学院 : 行知学院专业: 环境艺术10b2班 姓名:虞佳文学号: 10746330 授课教师 : 周武提交时间: 2011 年 10 月 30日成绩:

智能机器人的发展历史及现状 摘要:作为现代计算技术和IT技术的延伸,机器人正在逐渐走进我们的生活, 而高度智能化和特性化正成为个人机器人的鲜明特征。本文针对现代智能机器人的现状和发展趋势进行总结,提出了下一代智能机器人的关键技术——基于经验的记忆学习。 关键词:智能机器人;历史;应用;发展状况 1)智能机器人的现状 我们从广泛意义上理解所谓的智能机器人,它给人的最深刻的印象是一个独特的进行自我控制的“活物”。其实,这个自控“活物”的主要器官并没有像真正的人那样微妙而复杂。智能机器人具备形形色色的内部信息传感器和外部信息传感器,如视觉、听觉、触觉、嗅觉。除具有感受器外,它还有效应器,作为作用于周围环境的手段。这就是筋肉,或称自整步电动机,它们使手、脚、长鼻子、触角等动起来。 机器人技术自上个世纪中叶问世以来,经历四十多年发展已取得长足进步,成为提高产业竞争力方面极为重要的战略高技术。目前,机器人关键技术日臻成熟,应用范围迅速扩展,作为计算机、自动控制、传感器、先进制造等领域技术集成的典型代表,面临巨大产业发展机会。国内外业界专家预测,智能机器人将是21世纪高技术产业新的增长方向。2003至2006年间,全球智能服务机器人以每年40%左右的速度迅速增长。当代机器人专家现已达成了共识:作为计算机技术及现代IT综合技术的一个必然延伸,机器人技术完全可能遵循“摩尔定律”,以前所未有的速度实现突破。智能机器人将成为继家电、个人电脑之后、第三个以超常规速度走向我们日常生活的产品。 智能机器人之所以叫智能机器人,这是因为它有相当发达的“大脑”。在脑中起作用的是中央计算机,这种计算机跟操作它的人有直接的联系。最主要的是,这样的计算机可以进行按目的安排的动作。正因为这样,我们才说这种机器人才是真正的机器人,尽管它们的外表可能有所不同。我们称这种机器人为自控机器人,以便使它同前面谈到的机器人区分开来。它是控制论产生的结果,控制论主张这样的事实:生命和非生命有目的的行为在很多方面是一致的。正像一个智能机器人制造者所说的,机器人是一种系统的功能描述,这种系统过去只能从生命细胞生长的结果中得到,现在它们已经成了我们自己能够制造的东西了。 机器人即将重复个人电脑崛起的道路,机器人将与30年前的个人电脑一样迈入家家户户,彻底改变人类的生活方式。随着机器人技术的深入发展,机器人智能程度在不断提高,进一步拓宽了机器人的应用领域。机器人不但在工业领

华南理工大学《人工智能》复习资料

华南理工大学《人工智能》复习资料 Ch 2. 【状态空间表示】 S F G <>,, S :初始状态的集合 F :操作的集合 G :目标状态的集合 例如:507{}{}{}Q a b c Q Q <>,,,,, 【状态空间图】 【状态空间图搜索使用的数据结构】 OPEN 表:已生成但没考察的节点(待考察节点) CLOSED 表:考察过的节点及节点间关系(搜索树) 【广度/深度优先搜索特点】 广度优先:完备的(一定能找到最优解),搜索效率低,OPEN 表为队列结构 深度优先:不能保证找到最优解,OPEN 表为堆栈结构 有界深度优先搜索:即使能求出解,也不一定是最优 可变界深度优先搜索算法:深度可变,每次深度超过阈值 的点,都被当作待考察点(在CLOSED 表中) 【启发式搜索算法分类】 按选择范围分类: 全局择优搜索:考虑所有待考察节点 局部择优搜索:只考虑当前节点的子节点 【A*算法】 f (x ) = g (x )+ h (x ) g(x)为当前点的代价 h(x)为距离目标的距离 A*对A 算法的改进: 对h(x)作限制,使其总是小于实际最小距离h (x )≤ h* (x ), 具有完备性 【与或图】 Q 与Q1,Q2与等价(即Q 可以分解为Q1+Q2) Q1与{Q1i},{Q1i’}或等价(即Q1可以转换为{Q1i}或{Q1i’}) 【与或图中的概念】 本原问题:直接可解的问题。 终止节点:本原问题对应的节点 端节点: 无子节点的节点 与节点: 子节点为与关系 或节点: 子节点为或关系 【与或图的广度/深度搜索】 Step1:S0放入OPEN 表 Step2:OPEN 表第一个点(记为N )取出放入CLOSED 表,冠以编号n 。 Step3:若n 可扩展: (1)扩展N ,其子节点放入OPEN 表(深度:尾部,广度:首部) (2)考查这些节点是否终止节点。若是,放入CLOSED 表,标为可解节点,并对先辈点标示。若S0被标可解,得解。 (3)从OPEN 表删除具有可解先辈的节点。转Step2。 Step4:若N 不可扩展: (1)标示N 为不可解。 (2)标示先辈节。若S0被标不可解,失败。 (3)从OPEN 表删除具有不可解先辈的节点。转Step2。

智能机器人论文

智能机器人的发展与应用前景 摘要 本文介绍了智能机器人的发展概况、机器人的感官系统、机器人运动系统及人工智能技术在机器人中的应用,智能机器人是一个在感知-思维-效应方面全面模拟人的机器系统,外形不一定像人。它是人工智能技术的综合试验场,可以全面地考察人工智能各个领域的技术,研究它们相互之间的关系。还可以在有害环境中代替人从事危险工作、上天下海、战场作业等方面大显身手。 关键词: 智能机器人感官仿生人工智能 1.引言 人们通常把机器人划分为三代。第一代是可编程机器人。这种机器人一般可以根据操作人员所编的程序,完成一些简单的重复性操作。这一代机器人是从60年代后半叶开始投入实际使用的,目前在工业界已得到广泛应用。第二代是“感知机器人”,又叫做自适应机器人,它在第一代机器人的基础上发展起来的,能够具有不同程度的“感知”周围环境的能力。这类利用感知信息以改善机器人性能的研究开始于70年代初期,到1982年,美国通用汽车公司为其装配线上的机器人装配了视觉系统,宣告了感知机器人的诞生,在80年代得到了广泛应用。第三代机器人将具有识别、推理、规划和学习等智能机制,它可以把感知和行动智能化结合起来,因此能在非特定的环境下作业,称之为智能机器人。智能机器人与工业机器人的根本区别在于,智能机器人具有感知功能与识别、判断及规划功能。而感知本身,就是人类和动物所具有的低级智能。因此机器的智能分为两个层次:①具有感觉、识别、理解和判断功能; ②具有总结经验和学习的功能。所以,人们通常所说的第二代机器人可以看作是第一代智能机器人。 2.智能机器人的感官系统 2.1触觉传感器 英国近几年在阵列触觉传感方面开展了相当广泛的研究。例如:Sussex大学和Shack-leton系统驱动公司研制的基于运动的介电电容传感的阵列;由威尔士大学和软件科学公司研制的采用压强技术的装在机器人夹持器上的传感器。 2.2视觉传感 在机器人视觉方面,目前市场上销售的有以下6类传感器:①隔开物体的二维视觉:双态成像;②隔开物体的二维视觉:灰度标成像;③触觉或叠加物体的二维视觉;④二维观察;⑤二维线跟踪;⑥使用透视、立体、结构图示或范围找寻技术从隔开物体中提取三维信息。在这类系统方面,它们只能做一些很简单的操作。例如:为了使机器人具有某种程度的人眼功能,已进行大量的研究工作并向如下两类系统发展:①从一维物体中提取三维信息;②活动机器人导航、探路和躲避障碍物的现场三维分析。伦敦大学目前正在研究一种双目视觉机器人的实时图像处理机。还有正在研究机器人视觉系统的教育机构有:考文垂工业大学、爱丁堡大学、格拉斯哥大学、格温特大学;而伯明翰大学则专门研究惯性传感器。另外,还有许多从事传感系统开发的单位,都进行了传感反馈研究。如米德尔塞克斯工业大学致力于使机器人能组织和使用来自不同类型传感器的数据。这种机器人能“看”、“感”和“听”,它更接近于人。 2.3听觉传感

智能机器人材料3

2013 10th International Conference on Ubiquitous Robots and Ambient Intelligence (URAI) October 31-November 2, 2013 / Ramada Plaza Jeju Hotel, Jeju, Korea
Emotional Gait Generation Method based on Emotion Mental Model - Preliminary experiment with Happiness and Sadness Matthieu Destephe1, Kenji Hashimoto2 and Atsuo Takanishi3
Graduate School of Science and Engineering, Waseda University, Tokyo, Japan 2 Faculty of Science and Engineering, Waseda University, Tokyo, Japan 3 Department of Modern Mechanical Engineering & Humanoid Robotics Institute, Waseda University, Tokyo, Japan (Tel : +81-3-3203-4394; E-mail: contact@takanishi.mech.waseda.ac.jp)
1
Abstract – Designing humanoid robots able to interact socially with humans is a challenging task. If we want the robots to be actively integrated in our society, several issues have to be taken in account: the look of the robot, the naturalness of its movements, the stability of its walk, the reactivity it might have with its human partners. We propose to improve the reactivity of the robot by using a emotional mental model in order to generate emotional gait patterns. Those patterns will help the understanding of any emotional message conveyed between a human and a robot. We propose a novel emotional gait generation method based on the Emotion mental model. We did preliminary experiments with the Happiness and Sadness emotions and with different intensities. Keywords - Motion Generation, Emotion, Biped Robot, Social Robotics
1. Introduction
Humanoid robots are designed to interact with people in their daily life and at any age, as soon as kindergarten or as late as nursing home. Advanced robots such as robot companions, robot workers, etc., will need to be able to adapt their behavior according to human feedback. For humans it is important to be able to give and to be given such feedback in a natural way, e.g., using emotional expression. Expressive robots can act as caregivers for children, with or without disabilities, and help their emotional development and wellbeing through emotive interaction. Therefore the ability of expressing emotions is important to facilitate intuitive human robot interaction. Moreover, the adaptation of the robot movements to the interaction context is necessary in order to create an interaction as natural and beneficial as possible. In this context, several emotion capable robots were developed along the years. For example, the robot Kismet was designed to simulate emotion and assess the affective intent of the caregiver [1]; NAO a small humanoid (58 cm) is often used in Human Robot Interaction (HRI) studies with children [2]; and the Waseda KOBIAN (fig. 1), designed by the applicant's team, combines a face capable of human-like expressions (24 DoF) and the bipedal locomotion ability. Preliminary studies on KOBIAN showed that whole-body posture clearly improves the emotion recognition [3].
However, if we want to perform a smooth and natural Human Robot Interaction, it necessitates a dynamic interaction between the participants with feedback, which could be visual, audible or tactile. Most of the current robots are only focused on the facial expressions and use rarely their limbs [4-5]. It was showed that the use of whole-body to express emotions improves the recognition rate of the emotions, and thus could increase the understanding and feedback during an interaction. In the case where movements are used for the interaction, they are usually fixed and follow a pre-determined pattern. This means that the robot will follow the same stimuli-response pattern. However, emotions are known to be dependent on several factors such as interaction context, culture, age, and gender. Without dynamic adaptation, after some time, the human partner will become progressively bored and the human implication in the interaction will drop. Additionally, the emotive walking research is an innovative field of research which stays mainly unexplored. In this paper, we propose an emotional gait generation method based on the Emotion mental model [6]. After a brief literature review in section 2, we describe our robot platform, the emotional mental model and a new emotional gait generation method in section 3. We present an experiment in the section 4 and we conclude and comment our work in the section 5.
2. Related works
2.1 Humanoid robots Among human sized humanoids robots, just a few are capable of expressing emotions. HRP-4C is a geminoid which can express pre-programmed facial emotions but cannot walk [7]. ASIMO [8] and WABIAN-2RII [9] are able to walk but do not have emotion expression capabilities. KIBO [10], developed by KIST, can express facial emotion expression but this capability was not assess by research. KOBIAN-2R [11], developed at Waseda University, is able to walk and express emotions not only with its face but also with its whole body [13]. 2.2 Emotion models Emotion models can be classified in three categories: appraisal, a categorical or a dimensional approach. The appraisal approach states that our appreciation of events (appraisal) determines the reaction to those events and it is
978-1-4799-1197-4/13/$31.00 ?2013 IEEE
86

湖面清扫智能机器人的控制系统设计说明书

湖面清扫智能机器人的控制系统设计 1、引言 机器人是上个世纪中叶迅速发展起来的高新技术密集的机电一体化产品,它作为人类的新型生产工具,在减轻劳动强度、提高生产率、改变生产模式,把人从危险、恶劣的环境下解放出来等方面,显示出极大的优越性。在发达国家,工业机器人已经得到广泛应用。随着科学技术的发展,机器人的应用范围也日益扩大,遍及工业、国防、宇宙空间、海洋开发、紧急救援、危险及恶劣环境作业、医疗康复等领域。进入21世纪,人们已经越来越切身地感受到机器人深入生产、深入生活、深入社会的坚实步伐。机器人按其智能程度可分为一般机器人和智能机器人。一般机器人是指不具有智能,只具有一般编程能力和操作功能的机器人;智能机器人是具有感知、思维和动作的机器人。所谓感知即指发现、认识和描述外部环境和自身状态的能力,如装配机器人需要在非结构化的环境中认识障碍物并实现避障移动,这依赖于智能机器人的感觉系统,即各种各样的传感器;所谓思维是指机器人自身具有解决问题的能力,比如,装配机器人可以根据设计要求为一部复杂机器找到零件的装配办法及顺序,指挥执行机构,即指挥动作部分完成这部机器的装配;动作是指机器人具有可以完成作业的机构和驱动装置。由此可见,智能机器人是一个复杂的软件、硬件综合体。 机器人的核心是控制系统。机器人的先进性和功能的强弱通常都直接与其控制系统的性能有关。机器人控制是一项跨多学科的综合性技术,涉及自动控制、计算机、传感器、人工智能、电子技术和机械工程等多种学科的内容。 近年来,随着工业和其它服务行业的蓬勃发展,人们在重视其经济效益的同时却往往忽略了他们对环境的污染,人类赖以生存的水资源也不例外。水面污染对人类的水源构成很大的威胁,湖泊尤其是旅游胜地和市内人工湖泊,更是无法逃避漂浮物污染的厄运,举目可见各种日常消费品的包装物在湖面上漂浮。污染的加剧根治水污染。但是,水面污染的治理是一项艰难的长期任务,是全人类必须面对的共同问题。用人工清理水面漂浮物只是权益之计,有些危险水域人无法工作。很多发达国家致力于水面污染治理设备的研究,如石油清理设备,但只是用于大量泄露石油的清理。目前,我国研制的清理水面漂浮物的设备还未见报道,国外研制的也不多,并且价格昂贵,实现的功能也不尽人意。因此,开发一种性

智能机器人的现状及其发展趋势

智能机器人的现状及其发展趋势 摘要:本文扼要地介绍了智能机器人技术的发展现状,以及世界各国智能机器人的发展水平,然后介绍了智能机器人的分类,从几个典型的方面介绍了智能机器人在各行各业的广泛应用,讨论了智能机器人的发展趋势以及对未来技术的展望,最后提出了自己的建议和设想,分析我国在智能机器人方面发展并提出期望。 关键词:智能机器人;发展现状;应用;趋势 The status and trends of intellectual robot Abstract: This paper briefly discusses the development, status of intellectual robot, development of intellectual robot in many countries. And then it presents the categories of intellectual robot, talks about the extensive applications in all works of life from several typical aspects and trends of intellectual robot. After that, it puts forward prospects for future technology, suggestion and a tentative idea of myself, and analyses the development of intellectual robot in China. Finally, it raises expectations of intellectual robot in China. Key words: intellectual robot; development status; application; trend 1 引言 机器人是一种可编程和多功能的,用来搬运材料、零件、工具的操作机,或是为了执行不同的任务而具有可改变和可编程动作的专门系统。智能机器人则是一个在感知- 思维- 效应方面全面模拟人的机器系统,外形不一定像人。它是人工智能技术的综合试验场,可以全面地考察人工智能各个领域的技术,研究它们相互之间的关系。还可以在有害环境中代替人从事危险工作、上天下海、战场作业等方面大显身手。一部智能机器人应该具备三方面的能力:感知环境的能力、执行某种任务而对环境施加影响的能力和把感知与行动联系起来的能力。智能机器人与工业机器人的根本区别在于,智能机器人具有感知功能与识别、判断及规划功能[1]。 随着智能机器人的应用领域的扩大,人们期望智能机器人在更多领域为人类服务,代替

人工智能期末复习资料

1.什么是智能体?什么是理性智能体?智能体的特性有哪些?智能体的分类有哪些? 智能体定义:通过传感器感知所处环境并通过执行器对该环境产生作用的计算机程序及其控制的硬件。 理性智能体定义:给定感知序列(percept sequence)和内在知识(built-in knowledge),理性智能体能够选择使得性能度量的期望值(expected value)最大的行动。 智能体的特性:自主性(自主感知学习环境等先验知识)、反应性(Agent为实现自身目标做出的行为)、社会性(多Agent及外在环境之间的协作协商)、进化性(Agent自主学习,逐步适应环境变化) 智能体的分类: 简单反射型智能体:智能体寻找一条规则,其条件满足当前的状态(感知),然后执行该规则的行动。 基于模型的反射型智能体:智能体根据内部状态和当前感知更新当前状态的描述,选择符合当前状态的规则,然后执行对应规则的行动。 基于目标的智能体:为了达到目标选择合适的行动,可能会考虑一个很长的可能行动序列,比反射型智能体更灵活。 基于效用的智能体:决定最好的选择达到自身的满足。 学习型智能体:自主学习,不断适应环境与修正原来的先验知识。 2.描述几种智能体类型实例的任务环境PFAS,并说明各任务环境的属性。 答题举例: 练习:给出如下智能体的任务环境描述及其属性刻画。 o机器人足球运动员 o因特网购书智能体 o自主的火星漫游者 o数学家的定理证明助手 二、用搜索法对问题求解 1.简述有信息搜索(启发式搜索)与无信息搜索(盲目搜索、非启发式搜索)的区别。 非启发式搜索:按已经付出的代价决定下一步要搜索的节点。具有较大的盲目性,产生较多的无用节点,搜索空间大,效率不高。 启发式搜索:要用到问题自身的某些信息,以指导搜索朝着最有希望的方向前进。由于这种搜索针对性较强,因而原则上只需搜索问题的部份状态空间,搜索效率较高。 2.如何评价一个算法的性能?(度量问题求解的性能) 完备性:当问题有解时,算法是否能保证找到一个解; 最优性:找到的解是最优解; 时间复杂度:找到一个解需要花多长时间 搜索中产生的节点数 空间复杂度:在执行搜索过程中需要多少内存 在内存中存储的最大节点数 3.简述几种搜索方式的思想。 非启发式搜索: 广度优先搜索:首先扩展根节点,接着扩展根节点的所有后续,然后在扩展它们的后续,依

智能机器人项目立项申请材料

智能机器人项目立项申请材料 xxx科技发展公司

摘要 智能机器人的关键技术包括视觉、传感、人机交互和机电一体化等。 从应用角度分,智能机器人可以分为工业机器人和服务机器人。其中,工 业机器人一般包括搬运机器人、码垛机器人、喷涂机器人和协作机器人等。服务机器人可以分为行业应用机器人和个人/家用机器人。其中,行业应用 机器人包括智能客服、医疗机器人、物流机器人、引领和迎宾机器人等;个 人/家用机器人包括个人虚拟助理、家庭作业机器人(如扫地机器人)、儿童 教育机器人、老人看护机器人和情感陪伴机器人等。 报告根据项目工程量及投资估算指标,按照国家和xx省及当地的有关 规定,对拟建工程投资进行初步估算,编制项目总投资表,按工程建设费用、工程建设其他费用、预备费、建设期固定资产借款利息等列出投资总 额的构成情况,并提出各单项工程投资估算值以及与之相关的测算值。 该智能机器人项目计划总投资2861.45万元,其中:固定资产投资2438.17万元,占项目总投资的85.21%;流动资金423.28万元,占项目总 投资的14.79%。 达产年营业收入3077.00万元,总成本费用2347.69万元,税金及附 加50.17万元,利润总额729.31万元,利税总额880.07万元,税后净利 润546.98万元,达产年纳税总额333.09万元;达产年投资利润率25.49%,投资利税率30.76%,投资回报率19.12%,全部投资回收期6.73年,提供 就业职位51个。

项目基本情况、背景、必要性分析、市场前景分析、建设规划方案、选址分析、土建工程、工艺可行性、环境保护、清洁生产、项目职业安全管理规划、投资风险分析、项目节能情况分析、实施方案、投资方案、经济效益分析、项目评价等。

智能机器人信息技术教案

一、认识机器人 [教学目标] 知识目标:了解机器人的概念、特征、分类与用途,简单了解机器人的发展历程。 技能目标:熟练利用网络查找信息和处理信息。 情感目标:培养学生对机器人的兴趣,培养学生关心科技、热爱科学、勇于探索的精神。 [教学重点与难点] 教学重点:机器人的概念、特征;学生的自学能力和探索精神的培养。 难点分析:机器人的概念及其特征;学生自我评价。 [案例描述] 片断1 观看视频引入教学容 师:21世纪被信息技术专家誉为智能机器人的时代,机器人在各行各业将得到更加广泛的应用,机器人技术综合机械工程、电子工程、传感器应用、信息技术、数学、物理等多种学科,它代表着一个国家的高科技发展水平。同学们在生活中有没有接触过机器人?在影视作品中的机器人是什么样的?请同学给大家描述一下。 学生积极举手描述自己生活中、电影中见过的机器人,课堂气氛活跃,教师适时导入新课: 师:下面请同学们看一段关于智能机器人的视频。(教师播放关于机器人比赛的视频) 观看过后:同学们举了这么多机器人的例子,我们从刚才的视频上也看到机器人具有类似人类的形体和较高的智能。那么,到底什么是机器人呢?是不是只有在高科技实验室、科幻电影里面具有与人类相似的形体的才叫机器人呢? 学生开始讨论,问题初步涉及到机器人的特征方面。 师:现实生活中,机器人无处不在,并在我们的生活中起着重要的作用。你是否注意过商场的自动门、街头的取款机?这就是机器人!机器人就在我们身边!那么人们是怎么定义机器人的呢? 片断2 以任务为驱动开展教学 师:请同学们自学课本容回答以下问题 1、什么是机器人? 2、机器人有什么特征?结合机器人的特征回答为什么商场的自动门、街头的取款 机也称为机器人? 学生阅读课本容,总结归纳知识点。几分钟后,大部分学生总结出自己的答案,开始踊跃举手。 学生1:机器人是一种具有类似某些生物器官功能、用以完成特定操作和移动任务的、可通过编程来控制的机械电子装置。 学生2:机器人应该是由计算机控制的通过编排程序具有某些功能的机械。 师:从同学们的回答中可以看出机器人的外表不必像人,只要在功能上能模拟生物的动作和行为,都可以称作机器人。下面请同学们总结机器人的基本特征。 学生回答自己归纳、总结的机器人特征: 1.大脑:控制机器人的程序。 2.动作:任何机器人都有一定的动作表现。 3.身体:是一种物理状态,具有一定的形态。 师:回过头来,我们看看刚才谈到的商场自动门是不是机器人(与以上特征一一比对,得出它是机器人的结论)。 师:下面请同学们思考,你们面前的电脑是不是机器人?为什么? 教师扩展知识引出机器与机器人的区别:

工业机器人项目申报材料

工业机器人项目 申报材料 规划设计/投资分析/实施方案

工业机器人项目申报材料 目前,工业机器人由于下游应用场景日渐清晰,行业得到了快速发展,已然成为机器人市场的主体细分市场。对于中国而言,国内工业机器人行 业发展已走在世界前列,行业发展前景向好也进一步吸引了资本的大量涌入,反过来助推工业机器人行业加速发展。而行业的迅速发展对工业机器 人系统操作员、工业机器人系统运维员等专业人才产生了巨大需求,国内 工业机器人应用人才需求缺口进一步放大。 该工业机器人项目计划总投资6514.13万元,其中:固定资产投资4918.74万元,占项目总投资的75.51%;流动资金1595.39万元,占项目 总投资的24.49%。 达产年营业收入15021.00万元,总成本费用11614.88万元,税金及 附加130.23万元,利润总额3406.12万元,利税总额4006.16万元,税后 净利润2554.59万元,达产年纳税总额1451.57万元;达产年投资利润率52.29%,投资利税率61.50%,投资回报率39.22%,全部投资回收期4.05年,提供就业职位224个。 依据国家产业发展政策、相关行业“十三五”发展规划、地方经济发 展状况和产业发展趋势,同时,根据项目承办单位已经具体的资源条件、 建设条件并结合企业发展战略,阐述投资项目建设的背景及必要性。

......

工业机器人项目申报材料目录 第一章申报单位及项目概况 一、项目申报单位概况 二、项目概况 第二章发展规划、产业政策和行业准入分析 一、发展规划分析 二、产业政策分析 三、行业准入分析 第三章资源开发及综合利用分析 一、资源开发方案。 二、资源利用方案 三、资源节约措施 第四章节能方案分析 一、用能标准和节能规范。 二、能耗状况和能耗指标分析 三、节能措施和节能效果分析 第五章建设用地、征地拆迁及移民安置分析 一、项目选址及用地方案

智能机器人的现状及其发展

智能机器人的现状及其发展 学院:电气信息学院姓名:张琪学号:1143031172 摘要:本文主要介绍了智能机器人的发展现状、关键技术及其在各个领域的应用。然后总结了智能机器人在发展中存在的一些问题。最后提出了自己的建议和设想。 关键词:智能机器人;发展现状;传感器技术;智能控制;人机接口;应用 1.引言 机器人是一种可编程和多功能的,用来搬运材料、零件、工具的操作机,或是为了执行不同的任务而具有可改变和可编程动作的专门系统。智能机器人则是一个在感知- 思维- 效应方面全面模拟人的机器系统,外形不一定像人。它是人工智能技术的综合试验场,可以全面地考察人工智能各个领域的技术,研究它们相互之间的关系。还可以在有害环境中代替人从事危险工作、上天下海、战场作业等方面大显身手。一部智能机器人应该具备三方面的能力:感知环境的能力、执行某种任务而对环境施加影响的能力和把感知与行动联系起来的能力。智能机器人与工业机器人的根本区别在于,智能机器人具有感知功能与识别、判断及规划功能。 随着智能机器人的应用领域的扩大,人们期望智能机器人在更多领域为人类服务,代替人类完成更复杂的工作。然而,智能机器人所处的环境往往是未知的、很难预测。智能机器人所要完成的工作任务也越来越复杂;对智能机器人行为进行人工分析、设计也变得越来越困难。目前,国内外对智能机器人的研究不断深入。 本文对智能机器人的现状和发展趋势进行了综述,分析了国内外的智能机器人的发展,讨论了智能机器人在发展中存在的问题,最后提出了对智能机器人发展的一些设想。 2.国内外在该领域的发展现状综述 智能机器人是第三代机器人,这种机器人带有多种传感器,能够将多种传感器得到的信息进行融合,能够有效的适应变化的环境,具有很强的自适应能力、学习能力和自治功能。 目前研制中的智能机器人智能水平并不高,只能说是智能机器人的初级阶段。智能机器人研究中当前的核心问题有两方面:一方面是,提高智能机器人的自主性,这是就智能机器人与人的关系而言,即希望智能机器人进一步独立于人,具有更为友善的人机界面。从

2020年智能机器人的现状及其发展趋势

作者:空青山 作品编号:89964445889663Gd53022257782215002 时间:2020.12.13 智能机器人的现状及其发展趋势 摘要:本文扼要地介绍了智能机器人技术的发展现状,以及世界各国智能机器人的发展水平,然后介绍了智能机器人的分类,从几个典型的方面介绍了智能机器人在各行各业的广泛应用,讨论了智能机器人的发展趋势以及对未来技术的展望,最后提出了自己的建议和设想,分析我国在智能机器人方面发展并提出期望。 关键词:智能机器人;发展现状;应用;趋势 The status and trends of intellectual robot Abstract: This paper briefly discusses the development, status of intellectual robot, development of intellectual robot in many countries. And then it presents the categories of intellectual robot, talks about the extensive applications in all works of life from several typical aspects and trends of intellectual robot. After that, it puts forward prospects for future technology, suggestion and a tentative idea of myself, and analyses the development of intellectual robot in China. Finally, it raises expectations of intellectual robot in China. Key words: intellectual robot; development status; application; trend 1 引言 机器人是一种可编程和多功能的,用来搬运材料、零件、工具的操作机,或是为了执行不同的任务而具有可改变和可编程动作的专门系统。智能机器人则是一个在感知- 思维- 效应方面全面模拟人的机器系统,外形不一定像人。它是人工智能技术的综合试验场,可以全

相关文档
最新文档