分类 娱乐天地注册 下的文章

资料图:威斯布鲁克救球。

  11月6日电 NBA常规赛雷霆主场迎战鹈鹕的比赛中,雷霆主将拉塞尔•韦斯布鲁克在拼抢篮板时落地不稳,左脚踝扭伤,已经离场返回更衣室接受进一步检查。

  意外发生在第三节还剩下4分25秒时:鹈鹕队安东尼戴维斯杀入篮下抛投砸框弹起,威斯布鲁克跳起争抢篮板,但在落地时左脚呈90度扭伤,随后威斯布鲁克倒在地上无法起身。

  随后在队医的搀扶下,他一瘸一拐的离场接受检查。退场前,他出场了25分11秒,得到17分7篮板9助攻。

  今年夏天,维斯布鲁克曾经因为膝盖手术缺席了球队的季前赛和揭幕战对阵勇士的比赛。(完)

  中国侨网11月5日电 据新西兰天维网报道,日前,有学生反映,位于新西兰奥克兰东区的Pakuranga college给中国留学生发邮件称,“在中国过春节是完全不能接受的”,对此不少学生表示受到歧视,认为学校的说法太过分。

  学校发邮件声明:留在中国庆祝中国新年完全不能接受

  据该校的两名中国留学生A同学和C同学反映,当地时间10月23日,该校来自中国的国际留学生都收到了一封学校发出的邮件,告知在下个学期的开学日为2019年2月1日,其中,高年级学生的返校日为2019年1月24日。任何人不得推迟返校,否则不仅会影响学业,还会“成为记录一部分提交移民局办签证”。

  而最令学生们感到“不舒服”的是,邮件中提出,“没有理由推迟返回新西兰,留在中国庆祝中国新年是完全不能接受的!”这句话,而且还特别用了黑体。

  两位学生表示,这封邮件除了发给中国留学生之外,还发给了他们的寄宿家庭以及家长。但是,他们的本地华人同学、以及其他族裔的国际留学生同学,并没有收到这样的邮件。两位爆料学生说,不少同学和家长收到这封邮件后感到非常“不舒服”,觉得自己是被区别对待了,这封邮件存在针对中国留学生“种族歧视”的嫌疑。

  学生:想在家过个年怎么那么难

  据爆料的A同学反映,今年学校的暑假和春节挨得很近,所以很多同学都想暑假回家连同春节一起过。他说,“前两年春节和暑假隔得很远,我们都没在国内过春节。今年刚好暑假后一周就过年了,有不少中国同学都准备在国内多待一周,我也已经预定好了机票,准备这两天向学校请假的,只要学校批准,我就可以付机票钱了。可是收到这封邮件之后,机票只能改掉了。我已经有两年没有在家过年了。”

  A同学说,让他感到备受伤的,不是不能在家过春节这件事情,而是学校的这封邮件,“存在语言上的歧视,让我接受不了”,他说,“学校完全可以换一种说法,比较委婉或者善意的提醒学生。但现在学校说在国内庆祝中国新年完全不能接受,我就想问为什么我们的传统节日不能被接受?那新西兰还是不是多元文化啊?”

  C同学说,前几天,他身边有好几个同学因为春节的事情向学校请假,但据他了解,同学们的请假都没有被批准。然后他们就收到了这样的一封邮件。他说:“那些已经买好机票的同学就只能改签了,就差几天就能在家过春节了。”

  C同学也提出了与A同学同样的质疑,他认为,春节对来自中国的国际留学生来说非常重要,“这是我们一年当中最重要的节日了,我们很想在家与家人团圆过年,怎么就变成了‘庆祝中国新年不能被接受’了呢?就单单是我们的节日不被接受,还是其他所有传统节日都不能被接受?学校这种说法对我们来说不公平。”

  据了解,2019年新西兰各地学校的开学时间没有统一规定,新学期开学时间最早是1月28日,最晚可以是2月7日。另外,2月4日是除夕,5日是大年初一,到了6日又是新西兰的公共假期怀唐伊日。因此,也不难理解学生们为什么要多请一个星期假了。

  校长:邮件措辞确实不妥 不该如此强硬

  针对这封邮件,天维网也跟Pakuranga College取得了联系。校长Michael Williams对天维网表示,这封邮件是学校国际部发给中国留学生和他们的家长以及寄宿家庭的。但是他本人对这封邮件并不知情,是天维网发邮件询问后,他才知道国际部发了这样一封邮件出去。

  Williams校长对我们反复强调,这封邮件的措辞确实太过强硬,“我不懂中文,但是我看了一下这封信的英文部分,我觉得措辞确实很不妥当,太严苛了(harsh),完全可以用更加妥帖的词语(nicer words)来表达的。所以问题不在中文的翻译,而是英文的邮件就写得措辞失当了。”

  他说:“如果我来写这个通知的话,我肯定会换一种方式,把按时返校的重要性向学生和家长解释清楚,而不是用这种颐指气使的口吻来强调。”

  但Williams校长否认邮件与种族歧视有关,他表示,发这个邮件的初衷只是学校希望学生按时返校,不要耽误了学业。他说,国际学生支付高昂学费来留学,相信学生和家长都希望学业有成,物有所值,“当然中国新年是非常重要,我们也很理解学生和家长的心情,但一边是学业,一边是过节,就需要学生和家长平衡一下两边了。”

  Michael Williams介绍说,该校每年会在过完奥克兰日的那一周开学,今年的开学时间是1月30日。另外,高年级学生还需要在1月23日或者24日的时候返校,见一下他们的年级主任,讨论下个学期的学习计划。他说,学校给国际学生留的时间宽裕一些,所以最晚是2月1日报到。Michael Williams说:“很多人觉得刚开学几天不是很重要,但恰恰是刚开学的这几天,对于学生一整年的学习都至关重要”。

  Williams进一步解释道,新西兰的学校都是因材施教,刚开学第一周,学校会对学生的语言和课业方向进行评估,要根据每个人不同的情况安排不同难度的课程。如果错过了开学最初几个星期的话,学生整个学期的学习计划就可能被打乱。他强调:“尤其是国际留学生,很多人刚来没多久,语言上和课业上都需要适应,老师也要有时间了解他们,所以学校要求他们按时返校,不要耽误了选课。”

  校长表示,如果学生和家长非常希望孩子们在国内过年,强烈要求学校延迟开学的话,学校可能会酌情考虑他们的要求,但学校目前没有接到学生或者家长对这封邮件的投诉,也没有收到学生和家长对学校延迟开学的要求。

  据了解,该校目前有134名中国留学生,占该校外国留学生总人数的63.5%。(Sally)

  直面隐忧 业界大咖谈人工智能作恶

  别“炼”出造反的AI

本报记者 刘 垠

  一场抢劫案后,格雷的妻子丧生,自己也全身瘫痪。他接受了一个天才科学家的“升级”改造治疗——在他身体里植入了人工智能程序STEM,获得了超强的能力,从一个“残废”直接升级成为职业杀手。随着STEM的进化升级,步步紧逼格雷交出身体使用权和大脑意识控制权……

  本年度关于人工智能和人类未来的最佳影片,不少人认为非《升级》莫属。而人工智能和人类抗衡的探讨,是科幻电影中的永恒话题,从《银翼杀手》到《机械姬》,再到今年的低成本电影《升级》,都映射出未来人工智能对人类的威胁。

  黑产超正规行业 恶意源于人类基因

  AI造反,是科幻电影里太常见的桥段。问题在于,现实当中真正的AI好像也在一步步向我们走来。不少人抱有忧虑和不安,人工智能会“作恶”吗?

  倾向于AI威胁论的人并不在少数。马斯克曾在推特上表示:“我们要非常小心人工智能,它可能比核武器更危险。”史蒂芬·霍金也说:“人工智能可能是一个‘真正的危险’。机器人可能会找到改进自己的办法,而这些改进并不总是会造福人类。”

  “任何技术都是一把双刃剑,都有可能用于作恶,为什么人工智能作恶会引起这么大的反响?”在近日召开的2018中国计算机大会的分论坛上,哈尔滨工业大学长聘教授邬向前抛出了问题,人工智能研究的底线到底在哪里?

  早在1942年,阿西莫夫就提出了机器人三定律。但问题在于,这些科幻书中美好的定律,执行时会遇到很大的问题。

  “一台计算机里跑什么样的程序,取决于这个程序是谁写的。”360集团技术总裁、首席安全官谭晓生说,机器人的定律可靠与否,首先是由人定义的,然后由机器去存储、执行。

  值得注意的是,“不作恶”已成科技行业的一个技术原则。那么,机器人作恶,恶意到底从何而来?

  如今人工智能发展的如火如荼,最早拥抱AI的却是黑产群体,包括用AI的方法来突破验证码,去黑一些账户。谭晓生笑言:“2016年中国黑产的收入已超过一千亿,整个黑产比我们挣的钱还要多,它怎么会没有动机呢?”

  “AI作恶的实质,是人类在作恶。”北京大学法学院教授张平认为,AI不过是一个工具,如果有人拿着AI去作恶,那就应该制裁AI背后的人,比如AI的研发人员、控制者、拥有者或是使用者。当AI在出现损害人类、损害公共利益和市场规则的“恶”表现时,法律就要出来规制了。

  目前,无人驾驶和机器人手术时引发的事故,以及大数据分析时的泛滥和失控时有耳闻。那么,人工智能会进化到人类不可控吗?届时AI作恶,人类还能招架的住吗?

  任务驱动型AI 还犯不了“反人类罪”

  值得关注的是,霍金在其最后的著作中向人类发出警告,“人工智能的短期影响取决于谁来控制它,长期影响则取决于它能否被控制。”言下之意,人工智能真正的风险不是恶意,而是能力。

  “人工智能未来的发展会威胁到人类的生存,这不是杞人忧天,确实会有很大的风险,虽说不是一定会发生,但是有很大的概率会发生。”在谭晓生看来,人类不会被灭亡,不管人工智能如何进化,总会有漏洞,黑客们恰恰会在极端的情况下找到一种方法把这个系统完全摧毁。

  对此,上海交通大学电子系特别研究员倪冰冰持乐观态度。“我们目前大部分的AI技术是任务驱动型,AI的功能输出、输入都是研究者、工程师事先规定好的。”倪冰冰解释说,绝大多数的AI技术远远不具备反人类的能力,至少目前不用担心。

  张平表示,当AI发展到强人工智能阶段时,机器自动化的能力提高了,它能够自我学习、自我升级,会拥有很强大的功能。比如人的大脑和计算机无法比拟时,这样的强人工智能就会对我们构成威胁。

  “人类给AI注入什么样的智慧和价值观至关重要,但若AI达到了人类无法控制的顶级作恶——‘反人类罪’,就要按照现行人类法律进行处理。”张平说,除了法律之外,还需有立即“处死”这类AI的机制,及时制止其对人类造成的更大伤害。“这要求在AI研发中必须考虑‘一键瘫痪’的技术处理,如果这样的技术预设做不到,这类AI就该停止投资与研发,像人类对待毒品般全球诛之。”

  作恶案底渐增 预防机制要跟上

  事实上,人们的担忧并非空穴来风。人工智能作恶的事件早在前两年就初见端倪,比如职场偏见、政治操纵、种族歧视等。此前,德国也曾发生人工智能机器人把管理人员杀死在流水线的事件。

  可以预见,AI作恶的案例会日渐增多,人类又该如何应对?

  “如果我们把AI当作工具、产品,从法律上来说应该有一种预防的功能。科学家要从道德的约束、技术标准的角度来进行价值观的干预。”张平强调,研发人员不能给AI灌输错误的价值观。毕竟,对于技术的发展,从来都是先发展再有法律约束。

  在倪冰冰看来,目前不管是AI算法还是技术,都是人类在进行操控,我们总归有一些很强的控制手段,控制AI在最高层次上不会对人产生一些负面影响。“如果没有这样一个操控或者后门的话,那意味着不是AI在作恶,而是发明这个AI工具的人在作恶。”

  凡是技术,就会有两面性。为什么我们会觉得人工智能的作恶让人更加恐惧?与会专家直言,是因为AI的不可控性,在黑箱的情况下,人对不可控东西的恐惧感更加强烈。

  目前最火的领域——“深度学习”就是如此,行业者将其戏谑地称为“当代炼金术”,输入各类数据训练AI,“炼”出一堆我们也不知道为啥会成这样的玩意儿。人类能信任自己都无法理解的决策对象吗?

  显然,技术开发的边界有必要明晰,比尔·盖茨也表示担忧。他认为,现阶段人类除了要进一步发展AI技术,同时也应该开始处理AI造成的风险。然而,“这些人中的大多数都没有研究AI风险,只是在不断加速AI发展。”

  业界专家呼吁,我们必须清楚地知道人工智能会做出什么样的决策,对人工智能的应用范围和应用结果的预期,一定要有约束。

  AI会不会进化,未来可能会形成一个AI社会吗?“AI也许会为了争取资源来消灭人类,这完全有可能,所以我们还是要重视AI作恶的程度和风险。”现场一位嘉宾建议,我们现在要根据人工智能的不同阶段,比如弱智能、强智能和超智能,明确哪些人工智能应该研究,哪些应该谨慎研究,而哪些又是绝对不能研究的。

  如何防范AI在极速前进的道路上跑偏?“要从技术、法律、道德、自律等多方面预防。”张平说,AI研发首先考虑道德约束,在人类不可预见其后果的情况下,研发应当慎重。同时,还需从法律上进行规制,比如联合建立国际秩序,就像原子弹一样,不能任其无限制地发展。