王炳南 冯硕|人工智能时代的国际仲裁

您所在的位置:网站首页 弱人工智能和强人工智能对比图 王炳南 冯硕|人工智能时代的国际仲裁

王炳南 冯硕|人工智能时代的国际仲裁

2024-07-15 05:02:22| 来源: 网络整理| 查看: 265

原创 王炳南 冯硕 上海市法学会 东方法学

2023年,Bryan Cave Leighton Paisner发布的《2023年度国际仲裁调查报告:国际仲裁中的人工智能》针对当前国际仲裁中人工智能工具的使用情况、人工智能工具与具体仲裁程序的衔接以及国际仲裁中人工智能工具使用的披露与监管等问题展开调查分析,回应了当前国际仲裁中最为前沿和热门的问题,展示了当前仲裁界人工智能工具使用的真实状况以及从业者的现实态度,同时展示了未来人工智能工具在仲裁中使用的基本发展趋向。接下来还需继续推动技术与法律的融合,通过多方合作和规则制定来规范人工智能在仲裁中的应用,以确保人工智能技术的合理运用,最大限度保证仲裁过程的公正性、透明度和可靠性。

一、引言

近年来,随着网络技术的发展和大数据运用范围的扩大,互联网及其承载的应用和数据等组成的数字空间越来越成为人们学习、工作、生活的新空间,深刻影响了人类历史发展的进程。人类进入数字时代后,人工智能因其在数据分析和智能算法等方面的优势,进一步加速了数字产业升级,逐渐成为经济社会发展和科技变革的新动力,推动数字时代的未来更具创新性和智能化,为人类社会注入新的活力和可能性。

仲裁作为一种广泛应用于全球的跨国商事争议解决机制,其发展进步深受技术变革的影响,因而人工智能在国际仲裁中的应用具有深远意义。首先,人工智能在文本、图像等数据处理方面的独特优势,有助于降低案件的复杂性并加深使用者对案件事实的理解,提高案件审理水准;其次,人工智能可以快速处理和分析大量法律法规、判例和文献,帮助仲裁员做出更为合理的裁决,也有助于提高案件结果的可预见性;除此之外,人工智能也在翻译方面具有较大优势,有助于解决语言障碍、减少各方在案件理解上的分歧。人工智能的出现为新时代的争议解决提供了更加高效可靠的技术手段,但也引发了公众对于仲裁中新型工具运用的担忧。

在此背景下,BRYAN CAVE LEIGHTON PAISNER就仲裁与人工智能相关的诸多问题展开调查,并发布了《2023年度国际仲裁调查报告:国际仲裁中的人工智能》(Annual Arbitration Survey 2023:AI in IA)(以下简称《报告》),较为全面地讨论了数字时代人工智能对国际仲裁带来的机遇与挑战。

二、人工智能在国际仲裁中的运用

《报告》首先明确,人工智能目前没有一个标准定义,其仍是一个不断发展的领域。《报告》中涉及的人工智能主要包括通过文本挖掘、计算机视觉、语音识别、自然语言生成、机器学习和深度学习等技术收集或使用数据,并以不同程度的自主性预测、推荐或决定实现特定目标的最佳行动的系统。

(一)

人工智能在国际仲裁中的运用情况

人工智能工具在仲裁领域的运用已有时日,其在文件审查和翻译等工作中已形成了较为成熟的模式。而ChatGPT的出现成为了运用生成式人工智能工具的开端,一方面引领了新的技术革命,另一方面也引发了人们对其在专业领域使用的担忧。根据人工智能领域的普遍定义,ChatGPT因部分具备“可以全面、综合地复现人类的思维能力,且聪明程度能够达到或超过人类”特征,被认为是进入“强人工智能”时代的拐点。与传统“弱人工智能”相比,“强人工智能”在辨认能力与控制能力方面有了显著的飞跃。二者的区别在于是否能在自主意识和意志的支配下独立作出决策并实施行为,是否具有辨认能力与控制能力。虽然ChatGPT还不具备独立的自我意识和意志,不能被完全定义为“强人工智能”。但其已具备了部分辨认能力与控制能力,可以预见,在不久的将来,技术裹挟下的各种新型强人工智能工具将会不断涌现。

《报告》显示,28%的受访者在专业领域使用过ChatGPT,72%的受访者没有使用过。年龄在这一问题中的影响很小,26-35岁、36-45岁、46-55岁和56-65岁年龄段的数据和总体比例相对一致。在25岁以下和66岁以上年龄段中,使用ChatGPT的比例较低,分别只有11%和16%。受访者对于ChatGPT的应用范围主要集中在法律检索、法律文书起草、生成摘要以及非法律文件起草等方面。部分受访者特别表示,曾在法律检索工作中测试ChatGPT是否能找到适用的判例法、外国法律摘要或回答仲裁相关的法律问题。但ChatGPT表现出了相当的局限性,其检索结果明显存在准确性较低和缺乏原始资料等问题。

《报告》继续将视野扩展至包括但不限于ChatGPT的人工智能工具在国际仲裁领域的应用。调查结果显示,受访者对可用于执行不同任务的人工智能工具的范围具有高度认识,超过90%的受访者表示了解相关人工智能工具可以应用于国际仲裁中。其中,37%的受访者曾使用人工智能工具完成文件翻译工作,30%曾用于文件审查和文本格式编辑,23%用于从文档中提取和分析数据。还有部分受访者曾使用ChatGPT进行法律检索、实时口译、生成实时摘要,以及生成用于法律论证、专家报告和仲裁裁决的文本。除此之外,还有10%的受访者表示曾在问卷涵盖的领域外使用人工智能工具,如准备会议记录、用数学模型确定损害赔偿、总结和归纳判例法等。

尚未在相关领域使用过人工智能工具的受访者中,绝大部分也对于人工智能工具在仲裁工作中的使用抱有积极态度,如80%的受访者认为可以运用人工智能工具检测文书或材料中是否有运用人工智能的痕迹,73%和65%的受访者表示人工智能工具可以用于生成事实摘要、文件分析和文本格式编辑等工作。此外,超过50%的受访者认为可以将人工智能工具用于法律研究、文件审查、文件翻译和实时口译。

(二)

国际仲裁中使用人工智能的优势

关于在仲裁中使用人工智能工具的主要优势,《报告》显示,在所有受访者中,有62%认为使用人工智能最重要的优势是节约时间,85%的受访者将节约时间列为最重要或第二重要的优势。16%的受访者将成本效益列为最重要的优势,60%的受访者将成本效益列为最重要或第二重要的优势。同时,48%的企业内部法律顾问受访者将节约时间列为最重要的优势,65%将节约时间列为最重要或第二重要的优势。除此之外,还有受访者认为,人工智能工具在信息统合方面具有相当的优势。在数据挖掘过程中,使用者可以快速获取文件并确定需要调查的关键领域,从数据挖掘披露的信息中找出人工审查可能遗漏的问题和研究成果。

(三)

国际仲裁中使用人工智能的风险

《报告》显示,在通常意义上被认为更需要人类智慧的工作领域,受访者普遍对人工智能工具的参与更为抗拒。如62%的受访者认为人工智能工具不能用于生成仲裁裁决中使用的文本,而认为不能使用人工智能工具生成用于专家报告和于法律论证的文本的比例也分别高达58%和53%。可见,在仲裁裁决、专家报告、法律论证等更为依赖人类智慧和经验判断的工作中,使用人工智能工具更可能引发法律伦理方面的担忧,算法的不透明性和无法解释性可能招致各种质疑。事实上,以ChatGPT为代表的生成式人工智能在模型训练中获取的初始数据即是带有人类价值偏好的知识,Open AI也承认在对ChatGPT的训练中,“投喂”的训练数据存在某些类型的偏见。同时,算法在处理法律问题时也可能忽略案情的特殊性和人性化因素,从而影响公正性和裁决的合理性。一方面,对效率的需求促使人们寻求人工智能工具的帮助,另一方面,人工智能工具仍无法完全替代人类的经验智慧,人们仍普遍对人工智能工具的可信任度持保留意见。在算法逻辑与仲裁实务经验之间,由于存在个案价值偏差,类比推理难以建立案例之间的因果关系,自由裁量过程中的价值判断无法被人工智能技术中的计算模型所取代。而在文本格式编辑、文件翻译、以及文本分析等人工智能工具可以精准模型化的领域,由于此类工作对于人类智慧和经验的要求较低,只有少部分较为保守的受访者表示抗拒人工智能工具的使用。

另一方面,受访者对于不同工作类别中使用人工智能工具态度的差异,也与该工作需要借助人工智能工具的类别有关。文本格式编辑、文件翻译、文件分析等工作仅需使用单一“弱人工智能”工具即可完成。生成法律辩论、专家报告和仲裁裁决的文本则需要一定的辨认与判断能力,同时需要做出一定的决策,其对于人工智能工具的要求较高,“弱人工智能”已无法满足其要求,需要“强人工智能”的参与。在运用“强人工智能”工具的过程中,则无可避免地面临模型的不可解释性、算法和硬件的不可靠性以及自主意识的不可控性等风险,这些风险可能对仲裁程序和结果造成不可估量的危害。

就“多大程度上担心在仲裁中使用人工智能工具会带来以下风险”的问题,《报告》显示,有超过95%的受访者表示了解相关风险的存在,可见人工智能工具带来的风险已不是空穴来风。具体而言,88%的受访者非常担忧或有些担忧网络安全问题,同时88%的受访者非常担忧或有些担忧人工智能幻觉问题,即人工智能产生虚假答案的风险。87.5%的受访者非常担忧或有些担忧违反保密规定问题,86%的受访者非常担忧或比较担忧深度伪造问题,即使用人工智能工具伪造或篡改证据。81%的受访者非常担忧或比较担忧不当授权问题,即人工智能技术被用于执行属于律师、专家或仲裁员职务范围内的个人任务的风险。除此之外,也有超过70%的受访者担忧人工智能技术内部运作缺乏透明度及其造成的偏差、人工智能技术就同一问题回答的不一致性等问题,也提出了更为现实的裁决的承认执行问题,即若相关法域禁止人工智能工具的使用,则裁决有被视为无效或无法执行的风险。

三、人工智能工具与仲裁程序

(一)

人工智能如何做出决策

人工智能已经在国际仲裁中发挥着非常重要的作用,并且重要性会与日俱增。这项调查及时提醒了仲裁相关人士及时学习运用人工智能工具,每个参与国际仲裁的人都有必要迅速且更好地了解人工智能的运作方式。

事实上,与使用人工智能工具相关的很多风险都源于缺乏透明度和缺乏对人工智能工具如何基于数据集和算法学习并做出决策的了解。《报告》要求受访者以1-10分说明他们认为了解人工智能如何做出决策的重要性程度,以及他们对于自己确实了解这一点有多大信心。关于了解人工智能工具决策过程有多重要的问题,46%的受访者将其重要性评为10分,90%的受访者将其重要性评为7分或以上,即绝大部分受访者认为了解人工智能工具的内部决策过程非常重要。

算法自主性的提升同时导致人的被动性的加强,而从人的视角出发,无论是身处限制权力与保障权利的公法世界,还是基于意思自治构建的私法场域,对知情权的保障都是法律的题中应有之义。然而,关于对自己了解人工智能工具如何做出决策的信心,绝大多数受访者对此持保留态度,69%的受访者将其信心评为5分或以下。只有2%的受访者将其信心评为10分,将其信心评为8分或以上的受访者也仅占到15%。可见,作为仲裁从业人员的受访者普遍缺乏相关的算法基础训练,了解人工智能工具如何做出决策需要一定的知识储备和专业训练。因此对于仲裁从业者而言,人工智能的决策过程天然构成一个“算法黑箱”,即使用者对于算法运行的某个阶段所涉及的技术无法了解或得到解释,而“黑箱”的不透明与难以解释性直接影响到使用者的知情利益和对人工智能工具的信任感与认同度。

(二)

人工智能工具与仲裁员

当前,对新技术的了解和使用能力已成为选择仲裁员的重要考量因素,人们越来越多地期望仲裁员了解人工智能在仲裁中所发挥的作用,希望他们能够熟练使用人工智能工具,并且有能力处理仲裁中因使用人工智能工具而产生的各种问题。

《报告》要求受访者以1-10分说明,关于仲裁员对仲裁活动中人工智能工具使用的指导能力,他们信心如何。在所有受访者中,79%对仲裁员技术能力的信心评分为5分或以下,只有1.5%将其对仲裁员技术能力的信心评为10分,评为7分或以上的比例也仅占到15%。仲裁员群体对这一问题的回答表明,他们对自身指导能力的信心略高,其中73%的仲裁员对自身技术能力的信心评分为5分或以下,3%的仲裁员对自己的技术能力的信心评分为10分,19%的仲裁员对自身技术能力的信心评分为7分或以上。可见,即使仲裁员自身,关于自己对仲裁活动中人工智能工具使用的指导能力,态度也较为保守。

《报告》更进一步要求受访者明确他们对于仲裁员使用人工智能工具的看法,76%的受访者同意或非常同意仲裁员在使用人工智能工具时有必要提高透明度,不同意或非常不同意的比例仅为8%。

具体而言,74%的受访者同意或非常同意仲裁员不应使用人工智能工具制定或起草裁决书中的裁决要素,71%的受访者同意或非常同意应要求仲裁员披露在在仲裁中的任何用途而使用人工智能工具的情况,对这两项表示不同意或非常不同意的比例分别仅占12%和15%。而在只有当事人事先同意的情况下仲裁员才能使用人工智能工具的问题上,只有57%的受访者表示同意或非常同意,选择不同意或非常不同意的比例达到了24%。可见,普遍同意提高仲裁员使用人工智能工具透明度的同时,在具体如何规制仲裁员对人工智能工具的使用上,受访者的态度并不统一。尤其在是否以双方当事人事先同意作为仲裁员使用人工智能工具前提的情景下,受访者表现出了更为审慎的态度。固然仲裁员使用人工智能工具的情形需要受到规制或限制,但因此而授予当事人限制仲裁员行为的权利,亦存在挑战仲裁庭权力框架之嫌。

(三)

人工智能工具与证据的完整性

在“多大程度上担心在仲裁中使用人工智能工具会带来以下风险”问题中,86%的受访者非常担忧或比较担忧深度伪造问题,即使用人工智能工具伪造或篡改证据,深度伪造也成为在仲裁中使用人工智能工具的一大显著风险。《报告》对此问题进行了追问,要求受访者以1-10分说明对于人工智能工具的使用可能对仲裁中证据完整性产生不利影响的担忧程度,12%的受访者表示非常担心人工智能工具的使用会对证据的完整性产生不利影响,49%的受访者选择了7分或更高,只有3%的受访者对此表示完全不在意。有受访者表示,虽然各种形式的人工智能已经使用了一段时间,但最近的发展表明,包括仲裁在内的社会各界将越来越依赖人工智能,因此所提交的证据必须能在诉讼程序中得到充分检验,并能得到所有相关方的认可。

《报告》继续追问受访者是否有过在仲裁中使用人工智能工具导致证据完整性受损的经历,3%的受访者表示有过相关经历。尽管这一数据表明该情况并不普遍,但另一方面也表明,人工智能工具影响仲裁证据完整性的风险确然存在,而随着生成式人工智能工具使用的增加,该问题可能愈加重要。

四、人工智能工具使用的披露与监管

(一)

人工智能工具使用情况的透明度与披露

人工智能工具在争议解决中的迅速发展和越来越多的使用,普遍引发了是否应要求当事人披露在起草提交仲裁的材料时使用了人工智能工具的问题。《报告》调查了受访者对于当事人在仲裁中私自使用人工智能工具(即为其自身目的而非共同使用)的看法,其中60%的受访者对于有必要提高仲裁各方使用人工智能工具的透明度表示同意或非常同意,仅有14%的受访者选择了不同意或非常不同意。

关于是否应要求当事人披露在仲裁相关工作中使用人工智能工具的情况,同意或非常同意要求当事人披露为任何目的而使用人工智能工具情况的受访者仅占到47%,而选择了反对或非常反对的比例高达32%,可见,受访者的态度因使用人工智能工具的任务性质而异,认为不应当对披露人工智能工具的使用情况一概而论。具体而言,对于披露起草专家报告、文件审查及制作、文件翻译中人工智能工具使用情况的赞成度较高,其中72%的受访者同意或非常同意要求当事人披露使用人工智能工具起草专家报告的情况,65%的受访者同意或非常同意要求当事人披露在文件审查和制作中使用人工智能工具的情况,62%的受访者同意或非常同意要求当事人披露翻译需提交仲裁庭的文件时使用人工智能工具的情况。

反对或非常反对披露人工智能工具使用情况比例较高的工作主要集中在从事法律研究与文件分析。其中,37%的受访者反对或非常反对要求当事人披露使用人工智能工具进行法律研究,对此持积极态度的受访者仅占到40%,远远低于其它几项问题,甚至低于赞同要求当事人披露为任何目的而使用人工智能工具情况的47%。而在是否应要求当事人披露在文件分析中使用人工智能工具情况的问题中,50%的受访者表示了赞同,另有32%的受访者表示反对。

关于仲裁中人工智能工具使用情况应当向谁披露的问题,12%的受访者认为无需披露,50%的受访者认为应向所有参与仲裁的人披露,包括己方委托人、仲裁双方当事人、仲裁庭、仲裁机构以及第三方资助人或承保人。另外,8%的受访者认为仅需向己方委托人披露,14%的受访者认为应当向双方当事人披露,15%认为应当向仲裁庭披露,认为应当向仲裁机构或第三方资助人及承包人披露的比例也各占0.5%。关于是否经历过仲裁庭不允许在仲裁中使用人工智能工具的问题,受访者均表示没有遇到过此种情况。

根据调查结果可知,目前仲裁界对人工智能工具使用的披露还未能达成明确共识,鉴于各方的期望不尽相同,仲裁庭必须在仲裁的初期促成与各方当事人的公开对话,使得各方能够充分发表意见,确保每个仲裁参与者都遵守相同的规则。

有受访者表示,随着人工智能工具在仲裁中的普及,我们可能会看到双方当事人和仲裁庭之间就人工智能的使用展开更多对话。当事人在大部分情况下会就人工智能的使用达成共识,但在不能达成共识的情况下,仲裁员需要决定是否可以使用,并给出适当的使用方向。在某些情况下,如果法庭认为某一特定的人工智能工具会不合理地增加时间和成本,或损害诉讼程序的完整性,则可以拒绝允许使用。

(二)

对人工智能工具使用的监管

事实上,当技术能力突破带来无法预测的巨大风险后,应依据何种标准与模式以有效地实现对于生成式人工智能的监管,学界与实务界还处在探索的过程中。2022年,欧洲律师协会发布了《欧盟律师和律师事务所使用人工智能工具指南》,强调了使用人工智能工具可能对专业义务产生的风险。2023年8月,美国律师协会宣布成立法律与人工智能特别工作组,研究人工智能对法律执业的影响以及对律师的道德影响。2023年12月12日,英国司法部发布了《司法人员人工智能工具使用指南》(Artificial Intelligence:Guidance for Judicial Office Holders)(以下简称《指南》),详细描述了以ChatGPT为代表的生成式人工智能工具的使用方法、潜在风险及示例。《指南》中建议,人工智能工具可能在总结摘要、行政任务以及起草如建议函类文件等方面发挥作用,同时也强调,不建议法官和相关工作人员使用人工智能工具进行法律研究和法律分析,以避免其无法提供原始资料和人工智能幻觉等缺陷。除此之外,《指南》还特别提示,生成式人工智能提供的结果并不一定准确完整,它可能编造虚构的案例、法律、文章等,并且无可避免地反映了其训练数据中的错误和偏差,所以法官或相关工作人员必须为以自己名义制作的材料负责。仲裁界历来对仲裁中技术的使用采取“轻度干预"的监管方式,如何规范技术的共同使用,由当事人和仲裁庭自行决定。

关于是否需要对仲裁中使用人工智能工具进行监管的问题,63%的受访者赞成对仲裁中使用人工智能工具进行监管,剩余18%的受访者表示不知道,仅有19%的受访者表示仲裁中人工智能工具的使用不需要监管。在此基础上,部分受访者认为,并非所有的人工智能工具都需要收到监管,例如用于文件审查的人工智能工具已使用多年,已形成了较为成熟和安全的使用方式。还有部分受访者强调,使用人工智能工具起草法律意见书、专家报告或裁决书中的内容存在风险,需要对其进行特别监管。也有受访者指出,在人工智能工具这样飞速发展的领域,很难对其实现有效监管,唯一切实可行的方案是采取务实的做法,即使用人工智能工具的各方自行承担风险,并对使用结果承担全部责任。

对于如何规范人工智能工具在仲裁中的运用的问题,39%的受访者赞成使用软法进行规制,建议联合国国际贸易法委员会和国际律师协会作为处理这一问题的主管机构。26%的受访者赞成通过仲裁规则进行规制,即当事人可以自行选择是否接受。在此之外,有13%的受访者认为可以通过法律职业规范进行规制,6%的受访者选择了仲裁法这一最为强力的规制手段,3%的受访者认为还存在其它方式进行规制。另有13%的受访者认为无需对仲裁中人工智能工具的运用进行监管。在这一问题项下,部分受访者强调了仲裁规则和法律职业规范之间的衔接问题,他们建议,应当综合考量后对此作出规定,特别是在国际背景之下,不同法域的实践规则可能有所不同。

五、结语

《2023年度国际仲裁调查报告:国际仲裁中的人工智能》旨在深入探讨人工智能在国际仲裁领域的应用与影响。《报告》以问卷调查的方式,对来自世界六大洲的包括律师、仲裁员、法律顾问、专家证人、仲裁机构工作人员、法律技术服务供应商等仲裁的全流程参与者进行访谈,受访者大部分具有普通法背景,少部分具有大陆法背景或两者兼具,涉及的争端类型涵盖了银行与金融、建设工程、能源、保险、国际贸易、海事航运、酒店与餐饮业等,调研对象基本做到区域、职业、背景和从业经历的多样性要求,得出的结论相对客观。

从《报告》中看,随着科技的飞速发展,人工智能技术在仲裁中的使用频率大幅增加,其在文件翻译、文件审查等环节实现了智能化,大幅提高了仲裁效率。利用机器学习等手段进行案件分析,预测案件可能的结果,能够为当事人提供更科学的法律建议。但是,人工智能的应用提升了仲裁效率的同时,但也带来了一系列法律伦理、隐私和专业性的挑战,引发了使用者对于人工智能工具在仲裁中应用的担忧。受访者普遍认为,有必要提高仲裁中人工智能工具使用的透明度,并通过多种方式加强监管。

总而言之,《报告》就当前国际仲裁中最为前沿和热门的人工智能问题展开调研和分析,为我们展示了当前仲裁界人工智能工具使用的真实状况以及从业者的现实态度,也向我们展示了未来人工智能工具在仲裁中使用的基本发展趋向。未来,需要继续推动技术与法律的融合,通过多方合作和规则制定来规范人工智能在仲裁中的应用,以确保人工智能技术的合理运用,最大限度保证仲裁过程的公正性、透明度和可靠性。

往期精彩回顾

张子强 罗朝晖|生态环境保护区域协同执法的系统化研究张燕|DEPA争议仲裁机制研究朱克|国际商事仲裁中第三方资助的挑战与应对裴碧君 向会英|国际体育仲裁院临时仲裁制度探析及对中国体育临时仲裁的启示荣婷|国际投资仲裁中埃及规制措施研究与反思李鑫玉|论紧急仲裁员临时措施决定的执行困境与纾解路径

上海市法学会官网

http://www.sls.org.cn

继续滑动看下一个

王炳南 冯硕|人工智能时代的国际仲裁——2023年度《国际仲裁调查报告》评述原创 王炳南 冯硕 上海市法学会 东方法学 轻触阅读原文

上海市法学会 东方法学 赞 分享 在看 写留言 向上滑动看下一个

原标题:《王炳南 冯硕|人工智能时代的国际仲裁——2023年度《国际仲裁调查报告》评述》

阅读原文



【本文地址】

公司简介

联系我们

今日新闻


点击排行

实验室常用的仪器、试剂和
说到实验室常用到的东西,主要就分为仪器、试剂和耗
不用再找了,全球10大实验
01、赛默飞世尔科技(热电)Thermo Fisher Scientif
三代水柜的量产巅峰T-72坦
作者:寞寒最近,西边闹腾挺大,本来小寞以为忙完这
通风柜跟实验室通风系统有
说到通风柜跟实验室通风,不少人都纠结二者到底是不
集消毒杀菌、烘干收纳为一
厨房是家里细菌较多的地方,潮湿的环境、没有完全密
实验室设备之全钢实验台如
全钢实验台是实验室家具中较为重要的家具之一,很多

推荐新闻


图片新闻

实验室药品柜的特性有哪些
实验室药品柜是实验室家具的重要组成部分之一,主要
小学科学实验中有哪些教学
计算机 计算器 一般 打孔器 打气筒 仪器车 显微镜
实验室各种仪器原理动图讲
1.紫外分光光谱UV分析原理:吸收紫外光能量,引起分
高中化学常见仪器及实验装
1、可加热仪器:2、计量仪器:(1)仪器A的名称:量
微生物操作主要设备和器具
今天盘点一下微生物操作主要设备和器具,别嫌我啰嗦
浅谈通风柜使用基本常识
 众所周知,通风柜功能中最主要的就是排气功能。在

专题文章

    CopyRight 2018-2019 实验室设备网 版权所有 win10的实时保护怎么永久关闭