“无偿军援”泡汤,岛内舆论质问:美国的承诺可靠吗?******
【环球时报特约记者 程东】继参众两院分别表决通过总额高达8579亿美元的“2023财政年度国防授权法案”后,拜登签署了法案。民进党当局最期待的“无偿军援”泡汤,美国改为5年提供台湾100亿美元军援,舆论纷纷质问美国的承诺可靠吗?
美国“2023财政年度国防授权法案”涉台部分超过50页,是有史以来最长篇幅。内容涉及军事援助、对台军售、反制大陆以及美台交流等一系列议题。台湾《联合报》25日称,最受关注的是对台军援,法案授权2023—2027年通过美国国务院“军事融资”计划,提供台湾100亿美元无偿军援,每年最多20亿美元。不过根据美国立法规则,授权法案仅制定开支项目,只有拨款法案有权决定财政资金如何支配。而“2023财年综合拨款法案”并未拨款提供台湾无偿军援,仅提供最多20亿美元的贷款。美国《华尔街日报》称,台湾当局希望获得美国的无偿军援,而非贷款。但美国参议院拨款小组副主席、曾赴台强力推销波音客机的共和党参议员格雷厄姆称,对台贷款比赠款更合理,因为台湾很富裕。
其他方面,“国防授权法案”授权美方为台湾打造包括弹药及其他“适宜防卫武器”的“区域应变军备库”,并赋予台湾与北约组织南翼与东南翼地区、特定主要非北约盟友及菲律宾同样待遇,能优先取得美国“超额防卫物资”,同时煽动邀请台湾参加环太军演。此外,“拨款法案”在美国在台协会(AIT)预算下编列所谓“台湾学人计划”,提供包括美联邦政府官员等符合资格的美国公民赴台交流两年。
大陆国台办发言人朱凤莲24日回应说,这进一步表明美国内有一股势力挺台遏华贼心不死,企图在军事上武装支持“台独”分裂势力,为其递刀子、送枪炮,鼓动两岸对抗,在台海拱火,把台海推向战争边缘。她抨击民进党当局出于“台独”政治目的,顽固“倚美抗陆”“倚美谋独”,但“台独”没有出路,“倚美谋独”是绝路,任何人都不要低估中国人民捍卫国家主权和领土完整的坚强决心、坚定意志、强大能力。
台“国防部”和“外交部”24日称,法案“展现对台美关系及强化台湾安全的高度重视,敬表诚挚感谢”。《联合报》25日直言,简单来说,这是卖武器又顺便贷款给台湾,台湾“千万别高兴太早”。资深媒体人黄智贤称,美国光是用AIT在台湾指挥,已经不够用了,现在公然直接派公务员到台湾公务部门上班,“谁敢公开宣示,说上台绝对坚决抗拒美国?绝对不会对美国腿软下跪?”她说,不敢抗拒美国对台湾的控制,还说什么台湾人的尊严?
据《中国时报》25日报道,一项由美国杜克大学教授针对台湾安全进行的最新民调显示,当被问到“如果因为台湾宣布独立,大陆攻打台湾,美国政府会采取何种对策”时,选择“只提供武器”的人最多,占44.4%,然后依次为“出兵援助”(19.3%)、“只提供军事以外的援助”(13%)以及“什么都不做”(12.9%)。当被问到“台湾应加强军力还是采用比较温和的政策,以避免制造两岸紧张关系?”时,选择“采用温和政策”的人达到63.6%。调查团队成员表示,台湾民众实际上是看到美国如何援助乌克兰的情形后,“有了这种领悟”。
台湾中国文化大学政治研究所教授杨泰顺25日称,台湾未能争取到无偿军援,与美国预算拨款制度有一定关系,但“换个角度看,也只有美国这个制度,可以把台湾这个棋子玩得淋漓尽致”。《联合报》25日称,台湾如何不成为美国“抗中”的马前卒,进一步化解美国的压力,需要当局有智慧处理以及多数民众的认识与觉醒。
(环球时报)
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |