您當前的位置:檢測資訊 > 科研開發
嘉峪檢測網 2021-07-08 16:29
人工智能是人類通過模仿智力運動過程來實現人腦的認知、識別、記憶、計算、邏輯思維、推理判斷等復雜思維功能。信息網絡條件下,各種智能終端的普及和傳感器的運用產生了大量的數據,為人工智能醫學運用提供了源源不斷的養分,不僅給醫療領域本身帶來了一場新技術革命,更是具備了促進醫療行業模式改變的力量。
在醫療器械生產上,人工智能對醫療器械應用全過程中的效果的進行智能分析,讓醫療器械的研發和使用上更加符合醫療的實際,更加契合個人的使用習慣。病人定制、醫生定制的醫療器械產品有可能出現。一些遠程化、標準化、智能化醫療器械的運用會解決外科醫生不足的問題,醫療器械的研發、生產和運用更加精準化。
人工智能醫療運用會不會替代人類?
人工智能是人類發明的一項科學技術,是計算機技術的延伸,是計算機實現智能的原理,或制造類似于人腦智能的計算機。人工智能只是人類征服自然的工具,是人類認識和利用自然及其規律的手段,是構成社會生產力的重要部分。人是人工智能的創造者和使用者。人的能力是人進行人工智能研究的前提條件和基礎。人工智能的能力與人的能力息息相關,人工智能的升級和迭代與人的能力發展進步相關連。人始終在人工智能的發明和使用過程中處于主導地位。因而,人工智能的醫療運用是置于人的能力和人的主導下進行的,不可能超越人類自我,跨越人類之上,只能部分代替人的能力,增強人的部分能力,尤其是在涉及人類生命健康的醫療行業中,一個小小錯誤的代價可能是生命或生活功能喪失。無論人工智能的“醫療知識”有多豐富,“技術能力”如何精湛,“診治水平”怎樣高超!它仍然是同核磁、X射線、超聲、檢驗和病理一樣,是健康管理過程中的輔助決策工具,最后做決斷的是人,這是由技術的本質屬性決定的,與技術的功能無關。
人工智能醫療運用會不會喪失自我?
人類通過技術的發明和使用獲得了巨大收益的同時,卻又讓人類付出了代價,損害最明顯的是人的價值和自由。工業革命把人類從體力勞動中解放出來后,缺乏運動、高脂飲食、污染排放等開始影響人類的健康。一旦人工智能把人類從腦力勞動中解決出來,體力、腦力勞動雙解放,更容易讓人類在人工智能面前喪失“自我”,導致人自身、人與人之間、人與社會之間關系的異化,形成一種“病態世界”,人工智能在解放人類的同時又在奴役人性。這種狀況的出現不是人工智能的過錯,是人類使用人工智能過程中的偏差。人工智能醫療運用更讓人們陷入唯“人工智能”論,不信“真人”信“假人”,讓機器代替人類作決定,成為機器的奴隸。因而,人類須展現智慧的一面,有意識地去克服人工智能不利的一面,向更智慧的層面邁進。無論人工智能醫療運用有多“醫能”,它應該始終是人類改造自然的工具,是促進人類健康和尊嚴,謀求人類的長遠利益而發展的,不能成為人類文明畸形發展的災難,把人文精神貫穿人工智能醫療運用發展的始末。
人工智能醫療運用會不會存在問題?
人工智能醫療運用離不開數據、算法,以及結論的執行,但每個環節都可能存在問題。一是數據真偽問題。人工智能醫療運用的起點是數據,但數據的來源、記錄、整合等方面都可能存在漏洞。如有研究機構指出電子病案系統中80%左右醫療信息是粘貼和復制的,存在著許多疾病信息編碼、疾病描述的非標準化等錯誤。數據的整合也是其中的一個難點,如何將病歷、影像、檢驗報告里的非結構化數據轉化為可以識別的結構化數據。醫療機構之間的數據孤島現象,“私心”問題、全數據庫共享權限等均會制約人工智能的發展。二是算法有“偏見”。人工智能醫療運用算法的對象是不是具有代表性,算法開發者、設計者會不會有代碼“歧視”和“偏見”。這些看似無關的問題,實際上影響最終的結果,受人的主觀意識控制。如保險行業運用人工智能提高某些人群的保額或者拒保某一特定人群。三是過程缺乏科學評價。人工智能醫療運用中的數據、算法本身有沒有科學性也是問題,誰來評價這些數據、算法本身是否科學?如果數據、算法本身都存在問題,其結論的科學性就無從談起。退一步說,就算數據和算法都沒有問題,結論有沒有科學性,如何評價結論的科學性同樣需要科學的評價工具。四是責任邊際不易劃分。人工智能醫療運用是輔助診療工具,最后決策者是人,人承擔決策責任。但人工智能醫療運用的結果不同于影像學、檢驗學、病理學結果,一個是單一機器判讀的結果,一個大量數據測量的結果,誰應該承擔這一主觀性的責任。數據收集者、算法設計者、結論采用者誰應該承擔主要責任,尤其是當人工智能結果與人的主觀判斷結果不一致,且造成嚴重成果時,責任如何劃分?這些責任邊際劃分的結論也會反向促進或抑制人工智能的發展,需要一個不斷完善和健全的法律、倫理等制度保障。
人工智能醫療運用會不會產生危險?
技術是有兩面性的,一方面是技術本身的缺陷造成的,另一方面是使用者的不安全使用。人工智能醫療運用同樣存在危險。一是信息泄露。個人醫療信息的價值僅限于個人,但相關算法不僅能直接采集個人醫療信息,也會深度挖掘分析看似不相關的數據信息。人工智能在多場景、多平臺、多時段的數據收集,以及專業化的數據處理,使得信息主體本身難以查覺和了解,無法控制其個人信息的傳播和濫用,個人信息裸露在虛擬世界中。二是反向運用。人工智能醫療運用要有倫理和法律界限,即應以人類的根本利益和責任為原則,以實現人類根本利益為終極目標。但相關技術稍加轉化便可以對人類形成災難,如對疾病基因的篩選可以變成對致病基因的篩選,其作用就千差萬別了。三是形成鴻溝。人工智能醫療運用發展需要相對發達的信息網絡技術和廣泛場景運用為基礎,需要超量的資金和科學家團體的不懈努力,但在當前全球經濟發展不平衡、技術發展不均衡的環境下,人工智能發展出現了國家化和民族主義傾向,更易形成技術壟斷和壁壘,加深了國家、公司、個人之間的技術鴻溝,形成“懸崖”效應,將對人類社會的發展帶來許多不確定性的影響。
來源:Internet