moaal20是什么型号(型号moaal20)

moaal20是什么型号
moaal20是荣耀畅玩9A手机的型号。它选用的是6.3英寸屏幕,内嵌5000mAh大电池,加持智慧节电技术,通话时长可达64小时。机身有碧玉青、蓝水翡翠、幻夜黑三款配色,售价4GB+64GB是899元、4GB+128GB是1199元。moaal20是什么型号荣耀畅玩9A后置摄像头为后置双摄...

moaal20是什么型号

moaal20是荣耀畅玩9A手机的型号。它选用的是6.3英寸屏幕,内嵌5000mAh大电池,加持智慧节电技术,通话时长可达64小时。机身有碧玉青、蓝水翡翠、幻夜黑三款配色,售价4GB+64GB是899元、4GB+128GB是1199元。

moaal20是什么型号


荣耀畅玩9A后置摄像头为后置双摄:1300万像素+200万像素。拍照最大可支持4160x3120分辨率,摄像最大可支持1920x1080分辨率。

该机搭载6.3英寸水滴全面屏,20:9比例,支持电子书模式,后置指纹识别加前置人脸识别双解锁。

荣耀畅玩9A手机的CPU采用联发科MTK6765处理器,主频最高为2.2GHz,处理器采用8核心设计。

操作环境

品牌型号:HONOR畅玩9A

系统版本:Magic UI 2.0.1

新冠第三年,奥密克戎系变异株轮番登场,疫苗和药效果究竟怎样?

*仅供医学专业人士阅读参考

一波未平,一波又起,我们究竟该如何应对奥密克戎变异株?

自今年7月6日奥密克戎(Omicron)BA.5变异株在西安现身以来,近十个不同的奥密克戎变异株在我国不同地区轮番登场,让人目不暇接。

与之前的德尔塔(Delta)等变异株仅出现短短一段时间不同,奥密克戎变异株在2021年末席卷全球后,不断变换亚型,时至今日奥密克戎变异株仍是全球范围内最主要的流行变异株,而且是不同的奥密克戎变异株亚型共存[1]。

▲ 近7个月新冠在全球的流行趋势[1]

前不久,由复旦大学基础医学院姜世勃和陆路领衔的研究团队,分析了过去6个月印度、英国、美国和南非科学家上传到GISAID上的新冠病毒序列数据[2],发现即使在同一时期,不同的国家或地区占主导地位的流行优势株也不相同。可以说奥密克戎变异株这种多亚型共存现状,正是我国的输入性疫情异常复杂,多样性爆发的原因。

那么这个不断变化出新亚型的奥密克戎变异株与“前辈们”相比究竟有何特点?又该如何防治呢?接下来,我们将从三个方面展开,探讨上面的问题。

传播性“登顶”,毒性有所下降

奥密克戎变异株之所以能迅速并持久在新冠流行株中占主导地位,传播速度快是重要的原因之一。

从已经发布的研究数据来看,2019年最早出现的野生型(WT)新冠病毒株的基本传播数(R0)为3.3[3];变异为德尔塔变异株之后,基本传播数增加到5.1[4];到奥密克戎BA.1变异株,基本传播数又增加到9.5[5];而奥密克戎BA.2变异株的基本传播数高达13.3[6];等到奥密克戎BA.4/5变异株,基本传播数有可能直接飙升到了18.6[7]。

▲ 部分新冠毒株的基本传播数(R0)

最能看出奥密克戎变异株传播性大增的研究,是今年4月份美国疾病控制与预防中心(CDC)发布的一份血清学报告。

这份报告的数据显示:在2021年12月至2022年2月奥密克戎变异株大流行的短短两个多月间,美国人群的总体血清新冠抗体流行率就从33.5%增加到了57.7%[8]。

综合以上数据不难发现,与前辈相比,奥密克戎变异株的传播能力确实大增。然而,关于奥密克戎变异株的毒性,不同的亚型似乎不太一致。

先来看看奥密克戎变异株的早期亚型。今年年初,香港大学朱轩/袁国勇团队在《自然》杂志发表的研究论文表明,相较于野生型毒株以及此前流行的其他变异株,奥密克戎变异株(原始株B.1.1.529)在人的肺以及肠上皮细胞内的复制能力显著下降;而且在人源ACE2转基因小鼠中建立的感染性动物模型也证实,奥密克戎变异株的繁殖力较弱,而且致病性也较低[9]。此外,也有研究表明,BA.1的毒性远低于野生型毒株和德尔塔变异株[10];而BA.2亚型的毒性稍强于BA.1亚型[11]。

今年6月初《自然·医学》上发表的一项研究成果,与以上基础研究结论相吻合。这个研究对比了2021年12月15日到2022年1月17日期间,奥密克戎变异株(原始株、BA.1/BA.1.1或BA.2)感染者和德尔塔变异株感染者的临床数据,结果发现与德尔塔变异株相比,奥密克戎变异株感染者有症状性住院、接受ICU治疗、需要机械通气和死亡的风险,分别下降了41%、50%、64%和79%;而BA.1和BA.2之间差异不显著[12]。

▲ 奥密克戎变异株与德尔塔变异株毒性的比较[12]

不过,今年5月份日本的科学家的一项研究成果又让人担心起BA.4和BA.5来。他们研究了BA.2.12.1,BA.4和BA.5的病毒学特征,发现由于这三个亚型保留了德尔塔变异株的L452Q变异(更容易感染细胞[13]),变得比BA.2能更有效地在人类肺部细胞中复制了;而且BA.4和BA.5在仓鼠中的致病性比BA.2更强[14]。这一研究也让很多研究人员担心,BA.4和BA.5的传播性和毒性均提升。

不过,近期南非的一项基于真实世界数据的研究成果发现,与感染德尔塔变异株相比,感染奥密克戎变异株各种亚型的住院风险都降低(BA.1,aOR 0.29;BA.2,aOR 0.26;BA.4/BA.5,aOR 0.36),而且感染BA.4和BA.5的患者与感染BA.2的患者入院风险相似(aOR 1.00)[15]。

同样地,与感染德尔塔变异株相比,感染奥密克戎变异株各亚型的患者发展成重症的风险也都降低了(BA.1,aOR 0.42;BA.2,aOR 0.33;BA.4/BA.5,aOR 0.30),感染BA.4/BA.5的患者进展到重症的风险与感染BA.2的患者也相似(aOR 0.78,95% CI 0.37-1.62)[15]。

需要注意的是,BA.4和BA.5的细胞毒性之所以没有转化成临床毒性,可能与南非极高的群体免疫力有关[15]。因为前不久一项南非的血清学研究发现,97%的南非人体内有新冠病毒抗体,其中87%是因为之前感染过新冠病毒,10%因为接种疫苗[16]。

▲ 南非的血清流行学研究数据[16]

研究人员还提醒我们,在其他群体免疫力不高的环境中,BA.4和BA.5的临床毒性可能没有降低,毕竟BA.4和BA.5的传播和免疫逃逸能力都增加了,这会导致感染人数大幅增加,从而导致住院人数激增,进而对医疗系统产生影响[15]。

疫苗仍能预防感染,但新毒株免疫逃逸能力增强了

说道预防感染新冠病毒的措施,最先需要提及的还是公共卫生措施。

之前已经有很多研究表明,洗手、戴口罩和物理隔离等公共卫生预防措施,能有效预防新冠的传播[17],而且我国现行的防疫措施也是公共卫生手段能预防新冠感染的最好例证。不过,在疫情长期流行的情况下,公共卫生防疫措施有很多不足之处,疫苗是防疫的有力保障。

就在一个多月前,加州大学伯克利分校等研究机构的研究人员,研究了mRNA疫苗对奥密克戎变异株(原始株、BA.1/BA.1.1或BA.2)感染者和德尔塔变异株感染者的临床数据。他们发现,三针mRNA疫苗降低奥密克戎变异株感染重症风险的保护效力为57%,而德尔塔变异株感染这一数据为86%[12]。不难看出,面对奥密克戎变异株,mRNA疫苗的保护效果虽然下降了,但仍有保护效果。

7月22日,美国疾病控制与预防中心发布的研究报告显示,mRNA疫苗对BA.2/BA.2.12.2的有效性低于BA.1,不过第三剂mRNA疫苗对预防所有年龄感染者进展到中度和重度新冠肺炎相关疾病提供了额外的保护,而且第四剂mRNA疫苗对50岁及以上的成人提供了额外的保护[18]。实际上,美国FDA也已经批准在老年和免疫缺陷的人群中接种第四剂疫苗[19]。

mRNA疫苗对BA.4和BA.5的有效性目前数据较少,近期一项发表在《新英格兰医学期刊》的文章认为,接种mRNA疫苗加强针产生的中和抗体滴度足以应对BA.4、BA.5和BA.2.12.1,尽管相关中和抗体滴度低于针对BA.1和BA.2的[20]。

至于灭活新冠疫苗的效果,今年4月份我国疾病控制与预防中心周报发布了吉林BA.2疫情的数据。

报告数据显示,在2022年3月3日-4月12日期间,吉林省爆发的BA.2新冠疫情,累计感染人数为27036人[21]。在60岁及以上的人群中,没有接种疫苗或只接种一剂灭活疫苗(0+1剂组)的中度、重度和危重病例的发生率分别为每10万人29.92、9.62和4.27,分别比2剂组高出4.13、43.72和4.85倍,比3剂组高出13.28、22.37和∞倍[21]。从以上数据不难看出,灭活疫苗对BA.2有效,而且接种加强针有更强的保护作用。

灭活疫苗对BA.4和BA.5有效性的数据目前也没有。从体外实验数据来看,和mRNA疫苗一样,接种灭活疫苗后针对BA.4和BA.5的中和抗体滴度较BA.2低;不过,将接种国产重组蛋白疫苗的第二针与第三针的接种间隔延长到4-6个月,能使接种者对BA.4和BA.5的中和抗体水平保持在较高的水平[22]。

▲ 接种三剂灭活疫苗或重组蛋白疫苗后,针对不同变异株的中和抗体滴度[22]

近一个月以来,还有两项基础研究发现BA.4和BA.5确实更容易出现突破性感染[23,24]。这些研究都表明,BA.4和BA.5不太好对付。

尽管如此,我们也无需过于担心。今年7月下旬,国务院联防联控机制指出:疫苗接种对于BA.4和BA.5引起的肺炎、重症和死亡依然有很好的保护作用;但是,BA.4和BA.5对老年人的威胁仍然很大,感染后发生重症、导致死亡的风险依然很高[25]。

从美国疾病控制与预防中心更新的实时数据来看,在BA.4和BA.5大流行的今天,60岁及以上的高龄老人仍是住院的高风险人群,而且住院人数正在大幅增加[26]。

▲ 美国疾病控制与预防中心更新的实时住院数据[26]

因此,无论是我国还是美国,都强调老年人应加强疫苗接种[19,23]。美国FDA甚至指出,在12岁及以上的人群中,那些接受了实体器官移植,或者免疫功能低下的人,应该接种第二剂加强针(也就是接种4剂mRNA疫苗)[19]。

早期抗病毒治疗仍有效,但需注意病情“反弹”

既然奥密克戎变异株各亚型正在全球肆虐,而且正在引发一波波新的感染潮,高危人群的住院人数也在增加,那么对于感染了奥密克戎变异株不同亚型的高危患者而言,抗病毒治疗还有效么?

实际上,即使在奥密克戎变异株流行的今天,抗病毒小分子药物和单克隆中和抗体均被我国的《新型冠状病毒肺炎诊疗方案(试行第九版)》[27]和美国国立卫生研究院(NIH)发布的新冠肺炎的治疗指南所推荐[28]。虽然目前抗病毒药物治疗感染奥密克戎变异株不同亚型高危人群的数据较少,但是我们仍可以从一些真实世界研究中发现,无论是小分子抗病毒药物,还是抗病毒中和抗体,对于奥密克戎变异株都保持了一定的有效性。

香港大学团队今年5月份在预印平台medrxiv发表了一项真实世界的研究论文,这项研究发现与对照组相比,BA.2.2感染者使用小分子抗病毒药物Paxlovid与较低的死亡(HR=0.25,95%CI=0.13-0.47,p0.001)、住院(HR=0.69,95%CI=0.60-0.79,p0.001)和院内结局(HR=0.47,95%CI=0.31-0.71,p0.001)风险有关[29]。

今年4月份,加拿大科学家在著名期刊Clinical Infectious Diseases上发表的一篇重要研究论文,他们研究了新冠高危感染者(接受实体器官移植)接受抗病毒中和抗体治疗的效果。这个研究纳入了300名接受了器官移植的成人奥密克戎变异株感染者,结果发现感染早期接受中和抗体sotrovimab的治疗,与疾病严重程度降低独立相关(RR=0.24),而且这部分感染者住院的时间也更短[30]。

同月法国科学家在国际肾脏病学会的官方期刊Kidney International上发表的一项研究也发现,对于感染奥密克戎的肾移植患者而言,与对照组相比,接受中和抗体sotrovimab治疗的感染者死亡率和进ICU的风险更低[31]。

▲ Sotrovimab对感染奥密克戎的肾移植感染者的疗效[31]

实际上,高危患者尽早启动抗病毒治疗的好处远不止降低进展到重症或死亡的风险。

之前的抗病毒小分子药物和中和抗体研究都发现,早期抗病毒治疗能快速降低感染者的病毒载量,甚至是缩短感染者的核酸转阴时间[32-36]。例如,安巴韦单抗/罗米司韦单抗在中国进行的2期临床研究显示,相比安慰剂,用药组患者在症状缓解中位时间(8天 vs. 10天),29天时核酸转阴率(93% vs. 64%),以及事后分析得出的核酸转阴中位时间(8天 vs. 15天)方面均有获益趋势(因样本量小,不具有确证检验所需的统计学效度)[37]。抗病毒治疗的这一特点带来的好处是显而易见的,这意味着抗病毒药物可以降低疾病传播的风险,减少感染康复者的隔离时间。

虽然早期抗病毒治疗有上述诸多益处,但需要注意的是,近期有大量研究报道了一个异常现象:有部分接受小分子抗病毒药物Paxlovid治疗的患者,在病情好转、核酸转阴之后,病情突然出现“反弹”(COVID-19 rebound)[38-42]。

关于接受Paxlovid治疗的新冠感染者的病情“反弹”情况,美国疾病控制与预防中心早在今年5月24日就发布了一份报告[45]。这份报告指出,一些免疫反应正常的新冠感染者在完成了5天的Paxlovid治疗并痊愈,核酸检测结果为阴性,但是在随后的2至8天内会出现有症状的疾病复发(最常见的症状为感冒症状,有部分患者出现了疲劳和头痛的症状[40]),且病毒抗原和/或RT-PCR检测为阳性[45]。需要指出的是,这些疾病复发、检测结果呈阳性的患者,病情较轻、无需额外的抗新冠治疗,患者的住院或死亡的发生率没有增加,一般3天左右病情会改善或自愈[45]。

还有一些研究表明,新冠“反弹”后的核酸序列与Paxlovid治疗前的基线核酸序列一致[42],说明不是感染了其他亚型[46],也没有证据表明是新冠病毒对Paxlovid产生了耐药[46]。总的来看,Paxlovid治疗并痊愈后的“反弹”现象不是很常见,没有超过接受治疗病例的1%[39,43,44]。

需要警惕的是,已经有研究报道了两例Paxlovid治疗后的新冠“反弹”,并感染家属的病例[40]。因此美国疾病控制与预防中心建议,出现新冠“反弹”的患者应遵循疾病控制与预防中心关于隔离感染者的建议,在出现新冠“反弹”后应重新开始隔离,并再次隔离至少5天[45]。

虽然Paxlovid治疗后有可能会出现病情“反弹”,但是美国疾病控制与预防中心仍推荐将Paxlovid用于高危人群中轻度至中度新冠感染者的早期治疗,因为这可以降低他们进展为重症的风险[45]。

▲ 美国疾病控制与预防中心报告截图

目前Paxlovid治疗痊愈后出现病情“反弹”的原因仍没有定论,但如前面介绍,由于在发生“反弹”的患者中提取的病毒与用药前一致,既未发生耐药突变也没有检测到新的病毒株,于是研究人员推测,这一现象有可能是用药时间太短,患者还没有对病毒产生保护性免疫反应等所致[42]。实际上,最近一篇发表在《新英格兰医学期刊》上的研究表明,一些感染奥密克戎变异株的患者排毒时间可能超过5天[47]。也就是说,如果能长久维持足够的药物暴露,或许可以在一定程度上减少病情“反弹”。

相对于小分子抗病毒药物而言,抗病毒中和抗体的半衰期较长(普通IgG1抗体半衰期在20天左右[48],如果是可结晶段经过YTE改造的中和抗体,半衰期甚至能达到80天左右[49,50]),能长时间维持较高的血药水平,避免药物暴露不足的问题。

例如,前不久腾盛博药发布了在美国马里兰大学实验室进行的活病毒中和实验数据,结果显示:在单次给药14天后(1000mg安巴韦单抗和1000mg罗米司韦单抗),抗病毒中和抗体组合安巴韦单抗和罗米司韦单抗联合疗法的总血药浓度,仍保持中和超过90%的活病毒所需浓度(BA.4/5,Neut99:0.94ug/mL)的170倍以上[51]。与小分子抗病毒药相对较短的半衰期相比,中和抗体的抗病毒活性在体内可维持至少2周甚至以上。

从上面这组数据不难看出,安巴韦单抗和罗米司韦单抗的抗病毒活性至少能维持两周。这可能就是目前尚无研究报道使用单克隆中和抗体后出现“反弹”的原因。

▲ 电子显微镜下的新冠病毒(图源:NIAID-RML)

以上数据表明,无论是抗病毒小分子药物,还是安巴韦单抗/罗米司韦单抗,它们可能都对奥密克戎变异株保持了抑制活性。不过,体外的抗病毒研究数据与临床有效性之间的关系尚不明确,这些药物的实际效果究竟如何,还需要临床研究证实。

总的来说,与新冠病毒的其他变异株相比,奥密克戎变异株的传播能力更强,免疫逃逸能力也更强,毒性有所下降。尽管如此,国内外的很多研究均表明,现有疫苗仍有预防重症和死亡的效果,尤其是接种加强针后效果更好。老年人和存在免疫缺陷的人,仍是高危人群,需加强疫苗的接种,尽早开展抗病毒治疗。

参考文献:

[1].https://www.science.org/content/article/omicron-rages-scientists-have-no-idea-what-comes-next

[2].Xia S, Wang L, Zhu Y, Lu L, Jiang S. Origin, virological features, immune evasion and intervention of SARS-CoV-2 Omicron sublineages. Signal Transduct Target Ther. 2022;7(1):241. doi:10.1038/s41392-022-01105-9

[3].https://transportgeography.org/contents/applications/transportation-pandemics/basic-reproduction-number-r0-of-major-infectious-diseases/

[4].Liu Y, Rocklöv J. The reproductive number of the Delta variant of SARS-CoV-2 is far higher compared to the ancestral SARS-CoV-2 virus. J Travel Med. 2021;28(7):taab124. doi:10.1093/jtm/taab124

[5].Liu Y, Rocklöv J. The effective reproductive number of the Omicron variant of SARS-CoV-2 is several times relative to Delta. J Travel Med. 2022;29(3):taac037. doi:10.1093/jtm/taac037

[6].Fan Y, Li X, Zhang L, Wan S, Zhang L, Zhou F. SARS-CoV-2 Omicron variant: recent progress and future perspectives. Signal Transduct Target Ther. 2022;7(1):141. Published 2022 Apr 28. doi:10.1038/s41392-022-00997-x

[7].Tegally H, Moir M, Everatt J, et al. Continued emergence and evolution of Omicron in South Africa: New BA. 4 and BA. 5 lineages[J]. medRxiv, 2022.

[8].Clarke KE, Jones JM, Deng Y, et al. Seroprevalence of Infection-Induced SARS-CoV-2 Antibodies — United States, September 2021–February 2022. MMWR Morb Mortal Wkly Rep 2022;71:606-608. DOI: http://dx.doi.org/10.15585/mmwr.mm7117e3.

[9].Shuai H, Chan JF, Hu B, et al. Attenuated replication and pathogenicity of SARS-CoV-2 B.1.1.529 Omicron. Nature. 2022;603(7902):693-699. doi:10.1038/s41586-022-04442-5

[10].Suzuki R, Yamasoba D, Kimura I, et al. Attenuated fusogenicity and pathogenicity of SARS-CoV-2 Omicron variant. Nature. 2022;603(7902):700-705. doi:10.1038/s41586-022-04462-1

[11].Yamasoba D, Kimura I, Nasser H, et al. Virological characteristics of the SARS-CoV-2 Omicron BA.2 spike. Cell. 2022;185(12):2103-2115.e19. doi:10.1016/j.cell.2022.04.035

[12].Lewnard JA, Hong VX, Patel MM, Kahn R, Lipsitch M, Tartof SY. Clinical outcomes associated with SARS-CoV-2 Omicron (B.1.1.529) variant and BA.1/BA.1.1 or BA.2 subvariant infection in southern California. Nat Med. 2022. doi:10.1038/s41591-022-01887-z

[13].Motozono C, Toyoda M, Zahradnik J, et al. SARS-CoV-2 spike L452R variant evades cellular immunity and increases infectivity. Cell Host Microbe. 2021;29(7):1124-1136.e11. doi:10.1016/j.chom.2021.06.006

[14].Kimura I, Yamasoba D, Tamura T, et al. Virological characteristics of the novel SARS-CoV-2 Omicron variants including BA. 2.12. 1, BA. 4 and BA. 5[J]. bioRxiv, 2022.

[15].Wolter N, Jassat W, Walaza S, et al. Clinical severity of SARS-CoV-2 Omicron BA. 4 and BA. 5 lineages in South Africa[J]. 2022.

[16].Bingham J, Cable R, Coleman C, et al. Estimates of prevalence of anti-SARS-CoV-2 antibodies among blood donors in South Africa in March 2022. Preprint. Res Sq. 2022;rs.3.rs-1687679. Published 2022 May 24. doi:10.21203/rs.3.rs-1687679/v1

[17].Talic S, Shah S, Wild H, et al. Effectiveness of public health measures in reducing the incidence of covid-19, SARS-CoV-2 transmission, and covid-19 mortality: systematic review and meta-analysis. BMJ. 2021;375:e068302. Published 2021 Nov 17. doi:10.1136/bmj-2021-068302

[18].https://www.cdc.gov/mmwr/volumes/71/wr/mm7129e1.htm

[19].https://www.fda.gov/news-events/press-announcements/coronavirus-covid-19-update-fda-authorizes-second-booster-dose-two-covid-19-vaccines-older-and

[20].Qu P, Faraone J, Evans JP, et al. Neutralization of the SARS-CoV-2 Omicron BA.4/5 and BA.2.12.1 Subvariants. N Engl J Med. 2022;386(26):2526-2528. doi:10.1056/NEJMc2206725

[21].Fan X, Lu S, Bai L, et al. Preliminary Study of the Protectiveness of Vaccination Against the COVID-19 in the Outbreak of VOC Omicron BA.2 - Jilin City, Jilin Province, China, March 3-April 12, 2022. China CDC Wkly. 2022;4(18):377-380. doi:10.46234/ccdcw2022.081

[22].Zhao X, Zhang R, Qiao S, et al. Omicron SARS-CoV-2 Neutralization from Inactivated and ZF2001 Vaccines. N Engl J Med. 2022;387(3):277-280. doi:10.1056/NEJMc2206900

[23]. Wang Q, Guo Y, Iketani S, et al. Antibody evasion by SARS-CoV-2 Omicron subvariants BA.2.12.1, BA.4, & BA.5. Nature. 2022. doi:10.1038/s41586-022-05053-w

[24].Cao Y, Yisimayi A, Jian F, et al. BA.2.12.1, BA.4 and BA.5 escape antibodies elicited by Omicron infection. Nature. 2022. doi:10.1038/s41586-022-04980-y

[25].https://mp.weixin.qq.com/s/uBudpjrt1YppGVOkUXgjog

[26].https://covid.cdc.gov/covid-data-tracker/#new-hospital-admissions

[27].http://www.gov.cn/zhengce/zhengceku/2022-03/15/5679257/files/49854a49c7004f4ea9e622f3f2c568d8.pdf

[28].https://www.covid19treatmentguidelines.nih.gov/management/clinical-management/nonhospitalized-adults--therapeutic-management/

[29].Wong C K H, Au I C H, Lau K T K, et al. Real-world effectiveness of molnupiravir and nirmatrelvir/ritonavir among COVID-19 inpatients during Hong Kongs Omicron BA. 2 wave: an observational study[J]. medRxiv, 2022.

[30].Solera JT, Árbol BG, Alshahrani A, et al. Impact of Vaccination and Early Monoclonal Antibody Therapy on COVID-19 Outcomes in Organ Transplant Recipients During the Omicron Wave. Clin Infect Dis. 2022;ciac324. doi:10.1093/cid/ciac324

[31].Chavarot N, Melenotte C, Amrouche L, et al. Early treatment with sotrovimab monoclonal antibody in kidney transplant recipients with Omicron infection. Kidney Int. 2022;101(6):1290-1293. doi:10.1016/j.kint.2022.04.003

[32].Hammond J, Leister-Tebbe H, Gardner A, et al. Oral Nirmatrelvir for High-Risk, Nonhospitalized Adults with Covid-19. N Engl J Med. 2022;386(15):1397-1408. doi:10.1056/NEJMoa2118542

[33].Li H, Gao M, You H, et al. Association of nirmatrelvir/ritonavir treatment on upper respiratory SARS-CoV-2 RT-PCR negative conversion rates among high-risk patients with COVID-19. Clin Infect Dis. 2022;ciac600. doi:10.1093/cid/ciac600

[34].Jayk Bernal A, Gomes da Silva MM, Musungaie DB, et al. Molnupiravir for Oral Treatment of Covid-19 in Nonhospitalized Patients. N Engl J Med. 2022;386(6):509-520. doi:10.1056/NEJMoa2116044

[35].Dougan M, Nirula A, Azizad M, et al. Bamlanivimab plus etesevimab in mild or moderate Covid-19[J]. New England Journal of Medicine, 2021, 385(15): 1382-1392.

[36].Weinreich DM, Sivapalasingam S, Norton T, et al. REGEN-COV Antibody Combination and Outcomes in Outpatients with Covid-19. N Engl J Med. 2021;385(23):e81. doi:10.1056/NEJMoa2108163

[37].https://www.briibio.com/news-detail.php?id=1548#news

[38].Boucau J, Uddin R, Marino C, et al. Characterization of virologic rebound following nirmatrelvir-ritonavir treatment for COVID-19. Clin Infect Dis. 2022;ciac512. doi:10.1093/cid/ciac512

[39].Coulson JM, Adams A, Gray LA, Evans A. COVID-19 Rebound associated with nirmatrelvir/ritonavir pre-hospital therapy. J Infect. 2022;S0163-4453(22)00363-2. doi:10.1016/j.jinf.2022.06.011

[40].Charness M, Gupta K, Stack G, et al. Rapid Relapse of Symptomatic Omicron SARS-CoV-2 Infection Following Early Suppression with Nirmatrelvir/Ritonavir[J]. 2022.

[41].Soares H, Baniecki M L, Cardin R, et al. Viral Load Rebound in Placebo and Nirmatrelvir-Ritonavir Treated COVID-19 Patients is not Associated with Recurrence of Severe Disease or Mutations[J]. 2022.

[42].Antonelli G, Focosi D, Turriziani O, et al. Virological and clinical rebounds of COVID-19 soon after nirmatrelvir/ritonavir discontinuation. Clin Microbiol Infect. 2022;S1198-743X(22)00344-5. doi:10.1016/j.cmi.2022.06.029

[43].Malden D E, Hong V, Lewin B J, et al. Hospitalization and Emergency Department Encounters for COVID-19 After Paxlovid Treatment—California, December 2021–May 2022[J]. MMWR. Morbidity and Mortality Weekly Report, 2022, 71(25): 830-833.

[44].Ranganath N, OHoro JC, Challener DW, et al. Rebound Phenomenon after Nirmatrelvir/Ritonavir Treatment of Coronavirus Disease-2019 in High-Risk Persons. Clin Infect Dis. 2022;ciac481. doi:10.1093/cid/ciac481

[45].https://emergency.cdc.gov/han/2022/han00467.asp

[46].https://www.fda.gov/drugs/news-events-human-drugs/fda-updates-paxlovid-health-care-providers

[47].Boucau J, Marino C, Regan J, et al. Duration of Shedding of Culturable Virus in SARS-CoV-2 Omicron (BA.1) Infection. N Engl J Med. 2022;387(3):275-277. doi:10.1056/NEJMc2202092

[48].Mould DR, Sweeney KR. The pharmacokinetics and pharmacodynamics of monoclonal antibodies--mechanistic modeling applied to drug development. Curr Opin Drug Discov Devel. 2007;10(1):84-96.

[49].Zhang Y, Hao X, Ma J, et al. Phase 1 safety and pharmacokinetics studies of BRII-196 and BRII-198, SARS-CoV-2 spike-targeting monoclonal antibodies[J]. medRxiv, 2021.

[50].Loo YM, McTamney PM, Arends RH, et al. The SARS-CoV-2 monoclonal antibody combination, AZD7442, is protective in nonhuman primates and has an extended half-life in humans. Sci Transl Med. 2022;14(635):eabl8124. doi:10.1126/scitranslmed.abl8124

[51].https://mp.weixin.qq.com/s/HpUzxxuk3NN1qTRc4Xoo1Q

本文作者丨BioTalker

强化学习如何使用内在动机?

机器之心分析师网络

作者:仵冀颖

编辑:Joni Zhong

本文在回顾内在动机的生理学知识的基础上,探讨了内在动机在强化学习中的应用。

「内在动机」 (Intrinsic Motivation) 这一概念最初是在心理学中提出并发展起来的。由于其在制造开放式学习机器和机器人方面的潜力,这一概念正日益受到认知科学的关注。

所谓动机(Motivation)是指生物体的行为受到三个因素影响:(1)不可抗拒的外部影响;(2)内在的需求、动力、计划等;(3)充当目标或动机的外部对象或情况。

第一个因素很大程度上独立于生物体的内部状态,例如,从痛苦刺激中反射性退出,这叫做外在动机(Extrinsic Motivation)。后两个因素涉及假设的内部状态,这些内部状态被认为是解释行为的必要条件,称之为内在动机。

从心理学的角度分析,研究内在动机的主要目的是解释克服行为主义学习和驱动理论的困难,例如:解释为什么动物会对一些中性刺激(突然的光照、喂食等)产生特定的条件反射等反应。另一方面,研究内在动机的目的是探讨行动在内在动机中的重要性,例如解释一个人设法通过其行为来影响环境或可以自主地设定自己的事实有关的重要性。

Baldassarre 在文献 [1] 中从生物学的角度探讨内在动机。特别地,他对于内在动机和外在动机的区别进行了详细的分析。外在动机是指因某些外部提供的奖励而做某事,而内在动机则是指「因为某件事本身具有趣味性或令人愉悦而做某事」。从进化的角度分析,外在动机指导人们学习直接提高适应度的行为,而内在动机推动人或者智能体本身知识和技能的获得,这些知识和技能有助于智能体产生只在后期才能够显现作用的行为。基于这一差异,外在动机根据涉及身体自我平衡调节的事件生成学习信号,而内在动机则根据发生在大脑内部的事件生成学习信号。

近年来,内在动机问题引起了计算建模和机器学习等领域研究人员的关注。在了解了内在动机的生物学原理的基础上,研究人员提出了一些计算理论和模型,这些模型和模型有助于以与生物学或理论观点相关的方式阐明内在动机的概念。

这类模型主要有两类:

一是直接定义内在动机的生物学机制的模型。针对具有学习预测因子(即世界模型)的系统所捕获的内在动机因素,通过构建自适应的神经网络模型生成基于预测误差或预测误差减少的内在学习信号,从而找到能够学习到最多知识的环境因素 [7]。

二是与内在动机的进化理论直接相关的模型,例如引入内在动机的强化学习(Reinforcement Learning,RL)框架 [8],利用一个进化神经网络(强化器,Reinforcers)产生的内在强化信号学习基本的通用技能,进一步,能够将学习到的通用技能结合起来解决不同的机器人任务。

本文主要在回顾内在动机的生理学知识的基础上,探讨内在动机在强化学习 RL 中的应用。

在机器学习领域,一般认为强化学习 RL 框架只能处理外在动机,因为 RL 智能体(Agent)具有独特的输入通道,可以从其外部环境传递奖励信号。然而,研究人员证明,RL 框架同样适合结合内在动机的原理。

RL 被称为「启发式动态规划」和「神经动力学规划」。RL 算法解决了行为智能体如何在与环境直接交互的同时学习最佳行为策略(通常称为策略 Policy)的问题。强化学习之父 Barto 在文献 [2] 中阐述了在 RL 框架中引入内在动机的可能性和重要性。由于环境学习的局限性,RL 存在智能体无法学习可靠策略的问题,通过引入内在动机可以帮助智能体解决环境局限性所带来的问题:内在动机可使智能体能够学习有用的环境模型,从而帮助其更有效地学习其最终任务。Tejas D. Kulkarni 在文献 [3] 中提出了一种 RL 框架,该框架将在不同时间范围内运行的层次化行动价值功能与目标驱动的内在动机的深度强化学习相结合。

另外,本文将介绍利用内在动机改进机器人强化学习的两项研究成果。

一、内在动机的生理学背景介绍 [1]

从生理学的角度讨论,因为进化(Evolution)是理解任何生物学现象的关键原理,所以内在动机和外在动机都可以看成进化的关键因素:生物所有行为的存在都是由有机体的生存和生殖的进化需要引起的:为了补偿有机体的生理缺陷(「组织需求」)、减少缺陷,生物激发了各种行为。因此所有行为都是通过其与原始驱动力的关联而被激发和引导的,成为直接学习或作为通过二次继续(加强)学习的结果。例如,生物体进化出可以增加其生存和特定生境中的存活率和生殖机会(健康度)的身体结构;肌肉和骨骼系统的进化使生物能够在环境中更好的移动;传感器(各种传感系统)的进化使生物能够更好的感知外部环境;大脑(神经系统)可以存储技能(即感觉运动图)和知识(即抽象感官和预测能力)等等。

虽然外在动机和内在动机都倾向于涉及共同的生物学进化的学习机制,并改变相同的大脑结构,但它们涉及不同的指导机制:内在动机是基于驱动技能和知识学习的机制的动机,以及基于在大脑内直接检测到的这些技能和知识的水平和变化而对行为和行为进行剥削和激励的动力。内在动机使得生物体能够学习技能和知识,而无需在获取技能时直接影响体内的稳态需求和健康状况。这些技能和知识通常有助于提高适应性,从而使得生物体可以用来相对较快地学习调节行为的稳态行为和复杂的行为。生物体感知世界,并在此基础上产生行为。行为会产生其他感知,并且如果生物体(即大脑本身)正在获得新的技能和/或知识,则大脑的内在动机机制会产生学习信号。

关于内在动机背后的机制,生物学家开展了关于多巴胺(dopamine,DA)、海马体(hippocampus,Hip)、神经调节剂乙酰胆碱(neuromodulators acetylcholine,ACh)和去甲肾上腺素(noradrenaline,NE)等的研究,分析了相关生物体对内在动机的反应情况。

总体来说,内在动机有两个区别于外在动机的特征:一是,内在动机可能在外在动机影响的情况下产生并发展,例如,家禽需要短期的父母照料,之后利用内在动机满足体内平衡的需要;二是,内在动机产生的学习信号在获得产生它们的技能或知识后趋于减少或消失,例如,当孩子学会可靠地产生一种新发现的作用或认识一个新颖的物体时,与它们有关的内在动机就会趋于停止,并开始将其活动引导到其他地方。

二、内在动机与强化学习 RL [2][3]

在本节中,我们展开讨论如何基于强化学习(Reinforcement Learning,RL)的计算理论引入与内在动机相关的概念。RL 解决的是行为智能体如何在与环境直接交互的同时学会学习最佳行为策略的问题。RL 由一些方法组成,这些方法可在控制器与被控制系统进行交互时,针对最佳控制问题逼近闭环解决方案。RL 强调如何学习预测值并用于指导行为,经典的 RL 主要强调从外部通道(外部动机)获取奖励 (reward) 信号。因此,RL 与动机研究自然相关。

心理学家的研究表明,动机因素可以通过控制奖励的有效性以及控制学习结果在行为中的表达方式来影响学习。人工智能研究人员考虑,是否可以向以从外部输入通道(外在动机)获取奖励信号的经典 RL 框架中引入内在动机来进一步改进 RL?具体而言,这种内在动机包括学习(Learning)、触发固定行为模式的先天机制等。

对于 RL 来说,学习和行为生成过程可以「不在乎」使用内在动机还是外在动机,即奖励信号是内在的还是外在的。这就决定了 RL 只需关注用于生成奖励信号的特定机制即可,并不需要专门区分该机制是内在还是外在动机。

经典 RL 框架中 RL 智能体与其环境交互的一般视图如图 1 所示。智能体在该环境的感知状态的上下文中生成动作,它的行为(Action)会随着时间的推移影响环境的状态(State)。该环境(Environment)包含一个「批判函数(Critic)」,该批判函数在每个时间步骤为智能体提供对其正在进行的行为的评估(数字评分)。智能体通过在一段时间内学习如何从环境中传递更大幅度的奖励信号来提高其控制环境的技能,其中,从状态到批判函数实施的奖励信号的映射称为奖励函数(reward function)。

智能体的目标是通过行为以最大程度地衡量其期望在未来获得的奖励信号(Reward Signals)。该度量可以是预期在将来收到的奖励信号的简单总和,也可以是一种加权计算的结果,即较晚的奖励信号的权重小于较早的奖励信号的权重。由于智能体的行为会影响环境状态随时间的变化,因此,必须最大化预期奖励,即需要智能体对其环境状态的演变施加控制。智能体通过调整政策(Policy)来实现这一目标,该政策是将行动与观察到的环境状态相关联的规则。

注意图 1 中标有「环境(Environment)」的框不仅表示动物或机器人外部世界中的内容,还表示相对于奖励学习而言外部的内容,这部分内容可能仍位于动物或机器人内部。在 RL 框架中包含动机因素的起点是要弄清楚我们所说的「内部状态」是什么。

图 1. RL 中的主体与环境互动。主要奖励信号是从其环境中的「批评者」提供给智能体的。

图 2 是对图 1 的改进,将环境分为外部环境和内部环境。外部环境表示动物或机器人外部的内容,而内部环境则包含生物体内的组成部分。这两个组成部分共同构成了生物或机器人的环境。某些奖励信号可能是由外部环境中的物体或事件产生的感觉触发到身体产生的,例如拍打头部或赞美之词;其他因素可能是外部刺激和内部环境条件(如口渴的饮用水)共同引发的。但总体来说,所有奖励信号归根结底都是在生物体内生成的。

图 2. RL 中的智能体与环境互动,其中环境分为内部和外部环境,所有奖励信号均来自前者。阴影框对应于生物有机体。

然而,在构建 RL 框架的时候很难清晰地区分外部和内部奖励信号。在文献 [2] 中,从进化的角度提出从明显的外部奖励信号到明显的内部奖励信号其实是连续性的,内部奖励信号随着进化而改变,但这种改变相对于外部奖励信号来讲相对缓慢。因此,内部奖励信号与演化具有比较明显的恒定关系。因此,希望 RL 中的主要激励能够鼓励涉及学习系统这一部分环境特征的多种行为,包括涉及好奇心、新颖性、惊奇以及通常与内在奖励相关的其他内部介导特征的行为。这将给改进 RL 提供新的思路和方向。

为了解决在稀疏反馈的环境中学习目标导向的行为,文献 [3] 中提出了分层深度 Q 网络强化学习(hierarchical-DQN,h-DQN)框架。如图 3 所示,该框架集成了分层的行动价值函数,在不同的时间尺度上运行,并具有目标驱动的内在动机的深度强化学习。图 3 给出了 h-DQN 的整体框架,可以看出图 3 的框架是对图 2 框架的扩展。其中顶层 q 函数学习有关内在目标的策略,而下层 q 函数学习关于满足给定目标的原子动作的策略。

在该框架中,强化学习(RL)将控制问题的形式转化为寻找使预期的未来回报最大化的政策 π。价值函数 V(s) 是 RL 的总体目标,也可以概括为 V(s, g),以表示状态 s 用于实现给定目标 g∈G 的情况。当环境提供延迟的奖励时,首先学习实现内在生成的目标的方法,然后学习将它们连接在一起的最佳策略。每个价值函数 V(s, g) 可用于生成一个策略,该策略在智能体到达目标状态 g 时终止。这些策略的集合可以在半马尔可夫决策过程的框架内按时间动态地分层安排,以进行学习或完成计划。在高维问题中,这些价值函数可以通过神经网络近似为 V(s, g; θ)。

图 3. h-DQN 整体框架。

该框架具有在不同时间范围内工作的分层组织的深度强化学习模块,因此,允许灵活的目标定义。该模型在两个层次上进行决策:(a)顶层模块(元控制器)接受状态并选择新的目标;(b)下层模块(控制器)同时使用状态和所选目标来选择操作,直到达到目标或事件终止为止。

之后,定义元控制器选择另一个目标,并重复步骤(a-b)。在不同的时间尺度上使用随机梯度下降训练模型,以优化预期的未来内在(控制器)和外在奖励(元控制器)。其中,元控制器 (Meta-controller) 和控制器(Controller)使用单独的 DQN。元控制器查看原始状态,并通过估计动作值函数 Q2(s_t, g_t; θ_2) 来制定针对目标的策略(以最大化预期的未来外部奖励)。控制器接受状态和当前目标,并通过估计行动值函数 Q1(s_t, a_t; θ_1, g_t) 来估计行动(通过最大化预期的未来内在报酬)来产生行动策略。当且仅当达到目标时,内部批判函数才能为控制者提供积极的奖励。当一个阶段的工作结束或达到 g 的目标时,控制器终止。然后,元控制器选择一个新的 g,重复该过程。具体的算法学习流程如下:

h-DQN 使用 Deep Q-Learning 框架 [9] 来学习控制器和元控制器的策略。具体而言,控制器 Q1 估算以下 Q 值函数:

其中 g 是状态 s 中代理的目标,而 π_ag 是操作策略。同样,对于元控制器 Q2,我们有:

其中 N 表示直到控制器停止给定当前目标为止的所用步长,g 是状态 s_t+N 下智能体的目标,而 π_g 则是基于目标制定策略。本文使用参数为θ的非线性函数逼近器来表示 Q ∗(s, g) ≈ Q(s, g; θ)。每个 Q∈{Q1,Q2} 可以通过最小化相应的损耗函数 L1(θ1) 和 L2(θ2) 来训练。Q1 的损失函数可以表示为:

其中 i 表示训练迭代次数,y_1,i = r +γ max_a Q1(s_0, a_0; θ_{1,i-1}, g)。可以使用梯度优化参数 θ1:

损失函数 L2 及其梯度可以使用类似的过程计算得出。使用随机梯度下降法在不同的时间尺度上学习 h-DQN 的参数,其中在每个时间步都收集来自控制器的状态变化,但是仅在控制器终止时收集元控制器的状态变化。

三、内在动机在机器人学中的应用

本节中,我们选择了两篇论文具体探讨如何在构建 RL 框架的过程中引入内在动机,从而改进机器人的动作完成效果。

1. Intrinsically motivated model learning for developing curious robots

论文地址:http://www.cs.utexas.edu/users/pstone/Papers/bib2html-links/AIJ15-Hester.pdf

引入内在动机的 RL 框架能够使得智能体学习更有用的环境模型,从而帮助其更好的学习完成最终任务。这种 RL 框架非常适合机器人应用,因为机器人需要了解可以应用于不同任务的动态和能力。文献 [4] 提出了一种使用方差和内在创新奖励算法(Variance-And-Novelty-Intrinsic-Rewards algorithm,texplore-vanir)的基于内在动机的 RL 框架。该框架计算两种不同的内在动机:一种是探索模型的不确定内容,另一种是获得尚未对该模型进行过训练的创新经验。

Texplore-vanir 遵循了基于模型的 RL 智能体的典型方法。它使用其学习到的模型(包括内在奖励)来规划一个策略,按照该策略采取行动,获取新的经验来改进其模型,然后重复进行。为了适用于机器人任务,texplore-vanir 采用了基于实时模型的架构 [10]。该架构使用近似规划并将模型的学习、规划和行动并行化,使智能体可以在指定的频率下实时地采取行动。texplore-vanir 将模型学习任务作为一个监督学习问题,将当前状态和动作作为输入,下一个状态作为要预测的输出。以 (s,a) 作为输入,s-s 和 r 作为待预测的输出。模型学习通过监督学习器对未访问或不经常访问的状态进行预测的能力来加速模型学习。

与基于动态贝叶斯网络(Dynamic Bayesian Network,DBN)的 RL 算法一样,本文提出的算法通过学习每个 n-状态特征和奖励的单独预测,学习一个事实域。马尔可夫决策过程(Markov Decision Process,MDP)模型由 n 个预测每个特征的模型 (featModel1 到 featModeln) 和一个预测奖励的模型 (rewardModel) 组成。每个模型都可以被查询到对特定状态行为的预测(featModel⇒query(s,a)),或者用新的训练经验更新(featModel⇒update(s,a,out))。在 texplore-vanir 中,这些模型中的每一个都是一个随机森林。texplore-vanir 模型学习算法从计算状态的相对变化(s.^rel)开始,然后它用新的相对变化来更新每个特征的模型,并更新奖励模型。和基于 DBN 的算法一样,texplore-vanir 假设每个状态变量都是独立过渡的。因此,独立的特征预测可以组合起来,形成一个完整的状态向量的预测。智能体得到每个特征的变化值的预测值,然后将 s.^rel 加在一起,就可以得到 s 的预测值。

本文的算法不是针对这个单一的模型进行规划,而是以随机森林的形式,对可能的树模型的分布进行规划来驱动探索。一个随机森林是一个决策树的集合,每个决策树都不同,因为它们是在一个随机的经验子集上训练的,并且在选择决策节点上的分叉时有一定的随机性。为了增加模型的随机性,在树中的每 m 个决策树只在智能体的经验子集 (tuples) 上训练,因为它随着每一个新的经验以概率 w 更新。texplore-vanir 的动作值是:

使用最佳的内在奖励(intrinsic reward)来提高模型学习效率,这在很大程度上取决于被学习模型的类型。对于本文提出的随机森林模型 texplore-vanirs,假设以下两种内在动机的表现最好:1)倾向于探索状态空间中模型存在较大不确定性的区域;2)倾向于探索状态空间中远离之前探索过的区域(不管模型的确定性如何)。对于 1),texplore-vanir 计算对给定的状态行为的每个状态特征的预测方差的度量:

其中,对于森林中的每一对模型 (j 和 k),它是每个特征 i 的预测概率分布之间的 KL 差值之和。D(s, a) 衡量不同模型的预测结果的差异程度。将一个与这种变异度量成正比的内在报酬,即变异报酬,纳入智能体的计划模型中:

其中 v 是一个系数,决定这个奖励应该有多大。这种奖励将驱使智能体达到一种状态反应中,而此时其模型尚未收敛到全局动态的单一假设。因此会出现智能体的所有模型都做出错误预测的情况。对于 texplore-vaniruses 的随机森林模型来说,当它的模型不得不将自己的预测一般化到离它所训练的经验更远的地方时,就更容易出错。引入 2)对应的内在动机,在特征空间中,从一个给定的状态动作和模型训练过的最近的动作之间的 L1 距离。这个距离是针对每个动作分别计算的。对于一个动作 a,X_a 是该动作被采取的所有状态的集合。那么,δ(s,a) 是从给定状态 s 到最近的行动 a 被采取的状态的最小 L1 距离:

其中每个特征被归一化为 0 到 1 的范围。对于布尔特征,假定真和假之间的距离为 1。定义一个奖励函数(Novelty-reward),该奖励函数与这一距离成正比,它促使智能体去探索与之前所见过的状态反应相比最新颖、最具创新性的状态反应:

其中 n 是一个系数,决定了这个奖励的大小。这个奖励的一个很好的属性是,给定足够的时间,它将驱动智能体探索该域中的所有状态行为,因为任何未被访问的状态行为在某些特征上都与被访问的状态行为不同。

本文提出的 texplore-vanir 是通过这两种内在奖励的组合完成的。它们可以与不同权重的系数 (v 和 n) 相结合,或者与定义任务的外部奖励相结合。两种内在奖励的结合能促使智能体更有效地学习一个模型,同时以发展和好奇的方式进行探索:寻找创新有趣的状态动作,同时探索领域中更加复杂的部分。其随机代码如下算法所示。

作者给出了模拟域和真实机器人的实验。图 4 为模拟域任务—光明世界。在每一个房间里,智能体必须导航到钥匙,拿起钥匙,导航到锁上,按一下,然后导航到下一个房间的门,再通过门出去,进入下一个房间。图 5 显示了这些分布之间的变异距离,在 5000 个采样的状态反应中的平均数。该图显示,与其他方法相比,texplore-vanirlearns 模型的准确度显著高于其他方法(p

图 4. 光明世界任务。

图 5. 不同算法模型的准确度与智能体所采取的步数相比,在 30 次实验和 5000 个随机抽样的状态作用下的平均值。

真实机器人实验是在一个特定的场景中,控制 Aldebaran Nao 机器人的手臂。机器人学习视频取自 https://www.cs.utexas.edu/~AustinVilla/?p=research/vanir。模型可以控制机器人的两个右肩关节。

机器人可以选择五种动作之一:将左(右)关节的角度增加 8 度、将左(右)关节的角度减少 8 度、或者什么都不做。智能体的状态由 8 个状态特征组成:两个肩关节的角度、机器人的手相对于胸前的三维位置(以毫米为单位)、机器人的摄像头图像中能看到多少个粉红色的像素、机器人的右脚按钮是否被按下、机器人的麦克风上听到的能量大小。机器人以坐着的姿势放置,它的右脚按钮可以被右手触摸,在它的右手边有一个钹。另外它的手臂上还挂着一个粉红色的方块,可以在摄像头前移动。

机器人以 3 赫兹的频率做动作,让手臂在每次动作后有时间到达新的位置(如图 6)。实验目的是计算在探索过程中机器人右手能够按下按钮的次数。

图 6. Aldebaran Nao 机器人。

图 7. 在 13 次实验中,机器人在 400 个探索步骤中按下右脚按钮的比例。

图 7 给出在 400 步探索阶段中,机器人能够完成按下右脚旁边按钮任务的实验的比例。在 400 步探索阶段结束时,texplore-vanir 智能体在 13 个实验中的 7 个实验中按下了右脚旁边的按钮。相比之下,在进行随机探索时,没有一个实验按下了按钮。

2. Social Influence as Intrinsic Motivation for Multi-Agent Deep Reinforcement Learning

论文地址:https://arxiv.org/pdf/1810.08647.pdf

这篇文章聚焦的是解决 RL 跨多个领域学习的问题,即多主体强化学习(multi-agent reinforcement learning,MARL)。在这类问题中,如果智能体对其它智能体的行为具有因果影响,就获得奖励。本文关注一个重要的内在动机,也是人类学习的关键:社会交往。本文提出了一个针对多智能体 RL(MARL)设计的内在动机奖励函数,该函数可以奖励对其他智能体行为有因果影响的智能体。作者使用反事实推理法评估因果影响。在每个时间点上,智能体模拟自己本可以采取的另一种反事实行动,并评估这些行动对另一个智能体行为的影响。能够导致其他智能体发生相对较高变化的行为被认为是影响较大的行为,会得到奖励。作者假设:奖励性的影响可能因此鼓励智能体之间的合作。

本文所采用的实验环境是具有挑战性的多智能体环境,该环境具有类似于囚徒困境的游戏理论奖励结构。对于每个智能体个体来说,「叛逃」(不合作行为)的奖励最高。然而,如果所有的智能体都选择合作,那么集体奖励会更好。这些任务奖励规则会自相矛盾,但也模拟了合作社会的动态性,对于典型的 RL 智能体来说具有极大的挑战性。

考虑一个由元组 定义的 MARL 马尔可夫博弈。在这个博弈中,多个不共享权重的智能体被训练成独立的个体,目标是让奖励最大化。在每个时间点 t,每个智能体选择一个动作。根据状态转换函数 T,所有 N 个智能体的行动组合成一个联合行动,根据状态转换函数 T,在环境中产生一个转换。每个智能体都会得到自己的奖励,该奖励可能取决于其他智能体的行为。本文考虑一个部分可观察的设置,意思是每个智能体只能看到一部分真实状态。每个智能体都寻求最大限度地提高自己的预期未来总回报。

引入内在动机因素的奖励函数为:

其中,E 为外部或环境奖励,I 为因果奖励。作者通过生成智能体在每个时间点可能采取的反事实行动来计算 I,并评估采取这些行动会对其他智能体的行为产生怎样的影响。假设有两个智能体 A 和 B,智能体 B 在时间 t 时接收到 A 的行为作为输入。然后,智能体 B 使用它来计算其自身行为的分布。因为已经为 B 建立了 LSTM 模型,所以我们知道它的所有输入以及它自己内部的 LSTM 状态,如图 8 所示。这可以让我们通过限制在这个时间步长上观察到的其他输入的值来精确隔离 A 的行为对 B 的因果关系。

给定 A 的行为,B 的边际策略(marginal policy)与 B 的条件策略(conditional policy)之间的差异是 A 对 B 的因果影响的度量。它给出了 B 由于 A 的行为而改变其计划的行动分配的程度:

图 8. A 对 B 动作影响的因果图。以每个智能体对环境和 LSTM 状态(阴影节点)为条件,并对蓝色点)进行干预。

上式中的奖励函数与 A 和 B 之间的互信息有关:

与互信息的联系很有意思,因为单智能体 RL 经常使用的一个内在动机是赋权,它奖励智能体在其行为与环境的未来状态之间拥有较高的互信息,从而使其行为与环境的未来状态之间的互信息得到奖励。给定互信息的蒙特卡洛近似:

由此,定义社会影响奖励是智能体行为之间的互信息。

图 9 给出了一个关于不同智能体之间产生高影响力的瞬间示例。其中,紫色的影响者选择了朝向在黄色智能体的视线范围之外的苹果移动。因为影响者只有在有苹果的时候才会移动,这就向黄色智能体发出了一个信号,那就是它的上方一定有一个它看不到的苹果。这就改变了黄色智能体的行动计划分布,从而对紫色智能体产生了影响。

图 9. 当紫色的影响者发出信号,表示在黄色影响者的视野外 (黄色轮廓框内) 出现了一个苹果 (绿色方块),会产生一个高影响的瞬间。

本文作者还讨论了社会影响力奖励的第二种用途:学习智能体之间的通信协议。为智能体提供了明确的沟通渠道。在每个时间点内,每个智能体选择一个离散的通信符号。这些符号被串联成 N 个智能体的组合消息向量。然后,此组合消息向量在下一个时间点中显示给所有其他智能体,如图 10 所示。社会影响力奖励包括环境奖励和沟通奖励。在图 9 示例的基础上,为了训练智能体的通信能力,在初始网络中增加了一个输出头,它可以学习一个通信策略和值函数,以确定要发出哪个符号,从而训练智能体的通信能力。

图 10. 双头通信模式,学习一个通信策略和值函数,将其他智能体的通讯信息 m_t 输入到 LSTM。

为满足 MARL 问题集中式训练框架的需求,本文通过为每个智能体训练自己的内部其它智能体模型(Model of Other Agents,MOA)来完成独立训练。MOA 与智能体的卷积层连接的第二组完全连接的 LSTM 层组成,同时训练 MOA 以预测所有其他智能体的下一步行动,并且是以智能体的自我为中心的状态(视线范围内)在给定之前行动的前提下进行预测,见图 11。使用观察到的动作轨迹和交叉熵损失来训练 MOA。MOA 的因果分析过程具体见图 12,只有当智能体试图影响的智能体在其视域范围内时,才会给予社会影响力奖励。

图 11. MOA 结构。

图 12. MOA 结构中的因果图。阴影的节点是有条件的,通过用反事实代替蓝色节点来干预蓝色节点。带绿色背景的节点必须使用 MOA 模块进行建模。

本文实验中考虑了两个具有挑战性的多智能体环境:一是公益游戏 Cleanup,另一个是悲剧性的大众游戏 Harvest,如图 13 所示。

图 13. 多智能体环境图示,左:Cleanup,右:Harvest。

在不同实验条件下获得的总集体奖励如图 14。误差条显示了 5 个随机种子的 99.5% 的置信区间(CI),在 200 个智能体步骤的滑动窗口内计算。用影响奖励(红色)训练的模型明显优于基线模型和消融模型。

图 14. 总集体奖励。

为了分析智能体学习的交流行为,作者引入三个指标。发言者一致性:是一个归一化的分数,它评估的是一个归一化的分数,用来判断说话者智能体在采取特定动作时发出特定符号的一致性,反之亦然;以及两个瞬时协调 (IC) 的衡量标准,这两个标准衡量都是互信息。图 15 的实验结果表明,用社会影响力奖励训练出来的模型表现出更一致的沟通和更多的协调性,尤其是在影响力大的时候。

图 15. 描述学习通信协议质量的指标。

四、小结

在这篇文章中,我们讨论了内在动机及其在强化学习中的应用。在从心理学角度介绍内在动机基本概念的基础上,结合强化学习框架探讨了在机器学习方法中引入内在动机的方法。最后,详细介绍了两篇应用于机器人任务的强化学习框架,包括单智能体和多智能体两种应用场景。

正如开篇我们提到的,对于强化学习本身来说,并不严格区分内在动机、外在动机。强化学习强调的只是在与环境直接交互的同时学会学习最佳行为策略,而具体这种交互是出于内在动机还是外在动机并不影响学习的效果。只是人们普遍认为的是强化学习智能体奖励必须是外在的,因为这些奖励信号有明显的外部输入通道。研究人员改进经典的强化学习框架(如本文图 2),目的是更好的将内在动机原则融入其中。

将内在动机植入人工智能,可能会让人想起科幻小说中关于真正自主机器人的危险性的所有警告。但是,目前研究人员仍然是希望智能体拥有内在驱动的学习能力。自主性(Autonomy)正在成为自动化系统越来越常见的属性,因为它使自动化系统能够在动态的、复杂的、危险的、先验知识很少的环境中成功地长时间运行。为这些系统提供精心设计的内在动机,是一种使智能体有足够能力完成任务的研究方向。

参考文献

[1] Gianluca Baldassarre, What are Intrinsic Motivations? A Biological Perspective, http://core.ac.uk/download/pdf/37835544.pdf

[2] Andrew G. Barto, Intrinsic Motivation and Reinforcement Learning, https://eee.uci.edu/17s/68730/papers/barto-2013.pdf

[3] Tejas D. Kulkarni, Hierarchical Deep Reinforcement Learning: Integrating Temporal Abstraction and Intrinsic Motivation, http://papers.nips.cc/paper/6233-hierarchical-deep-reinforcement-learning-integrating-temporal-abstraction-and-intrinsic-motivation.pdf

[4] Hester, Todd,Stone, Peter, Intrinsically motivated model learning for developing curious robots, Artificial Intelligence, Volume 247, June 2017, Pages 170-186, http://www.cs.utexas.edu/users/pstone/Papers/bib2html-links/AIJ15-Hester.pdf

[5] Jane X Wang, Edward Hughes, et al., Evolving intrinsic motivations for altruistic behavior, ICLR 2019, https://arxiv.org/pdf/1811.05931v1.pdf

[6] Natasha Jaques, Angeliki Lazaridou, et al., Intrinsic Social Motivation via Causal Influence in Multi-Agent RL, https://arxiv.org/pdf/1810.08647v1.pdf

[7] H. V . Neto and U. Nehmzow,「Visual novelty detection with automatic scale selection,」Robotics and Autonomous Systems, vol. 55, no. 9, pp. 693–701, 2007

[8] S. Singh, R. Lewis, A. Barto, and J. Sorg,「Intrinsically motivated reinforcement learning: An evolutionary perspective,」Autonomous Mental Development, IEEE Transactions on, vol. 2, no. 2, pp. 70–82, 2010

[9] V . Mnih, K. Kavukcuoglu, D. Silver, A. A. Rusu, J. V eness, M. G. Bellemare, A. Graves, M. Riedmiller, et al. Human-level control through deep reinforcement learning. Nature, 518(7540):529–533, 2015

[10] T. Hester, M. Quinlan, P. Stone, RTMBA: a real-time model-based reinforcement learning architecture for robot control, in: Proceedings of the 2012 IEEE International Conference on Robotics and Automation, ICRA, 2012

作者介绍:

仵冀颖,工学博士,毕业于北京交通大学,曾分别于香港中文大学和香港科技大学担任助理研究员和研究助理,现从事电子政务领域信息化新技术研究工作。主要研究方向为模式识别、计算机视觉,爱好科研,希望能保持学习、不断进步。

本文来自自欺欺人投稿,不代表美啦巴巴立场,如若转载,请注明出处:https://www.meila8.com/5/4302.html

打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
() 0
上一篇 12-20
下一篇 12-20

相关推荐

  • moaal20是什么型号(型号moaal20)

    moaal20是什么型号
    moaal20是荣耀畅玩9A手机的型号。它选用的是6.3英寸屏幕,内嵌5000mAh大电池,加持智慧节电技术,通话时长可达64小时。机身有碧玉青、蓝水翡翠、幻夜黑三款配色,售价4GB+64GB是899元、4GB+128GB是1199元。moaal20是什么型号荣耀畅玩9A后置摄像头为后置双摄

    2022-12-20 17:50:01
    614 0

评论列表

联系我们

123456

在线咨询: QQ交谈

邮件:admin@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信