為什么微信上的小紅點總會吸引你點開?專家解讀
2021年11月03日 16:11 來源:文匯報

  專家指出,當算法和心理學、腦科學試圖占據(jù)人的注意力時,應加大對人工智能價值觀審視和對人工智能倫理研究

  ■本報記者 姜澎

  每個人都有過這樣的經(jīng)歷:打開手機準備回消息或打電話,一看到微信圖標右上方的小紅點,于是忍不住先打開微信;看完微信,不知不覺又被另一個App牽引,直到關(guān)閉手機屏幕才發(fā)現(xiàn)自己早已忘了打開手機的初衷。

  你以為這是健忘?非也!智能手機每一個App背后的算法,不僅有人工智能領(lǐng)域?qū)<也俚,還有心理學以及腦科學家的“精心設(shè)計”,讓你不知不覺“深陷其中”。

  超級人工智能和人類的博弈,是科幻作品中的永恒主題。而如今,這種博弈或許已嵌入人們的日常生活之中。

  時下,越來越多的學者開始熱議一個話題:當算法與心理學、腦科學等對關(guān)乎人類本身認知的科學結(jié)合得越來越緊密時,算法是否會主宰我們的生活?人類是否會淪為算法的“奴仆”?

  雖然不同學科背景的專家對此看法不一,但大家達成一點共識:學會與機器正確相處,對生活在智能時代的每一個人而言,都是一種生存技能,其重要性不言而喻。

  人的注意力,正在成為被“精心設(shè)計”的對象

  日前,一部關(guān)于社交媒體成癮的紀錄片《社交困境》引發(fā)不小關(guān)注。紀錄片中的主角,正是那些曾經(jīng)在硅谷等知名互聯(lián)網(wǎng)公司的從業(yè)人員。他們坦言,當開始意識到隨著算法的升級,尤其是當算法和心理學、腦科學相互融合,并逐漸占據(jù)人類越來越多的注意力時,他們自己也覺得似乎無法逃脫算法的“控制”。

  事實上,打開手機、點開某個App或劃動拇指,對很多人來說不僅是習慣,也已成為一種肌肉記憶,甚至是一種本能。而這背后,是不是也有一只“看不見的手”在操控呢?

  “人工智能的發(fā)展,使得機器帶來的成癮行為越來越普遍!鄙虾=煌ù髮W心理與行為科學研究院執(zhí)行院長李衛(wèi)東介紹,和藥物成癮會給大腦細胞層面帶來不可逆變化有所不同,電子產(chǎn)品或社交軟件成癮對大腦機制的影響方式,目前尚未非常明確。但可以確認的一點是,隨著算法和人工智能的發(fā)展,這類“成癮”的可能性更大、影響也更廣。

  要知道,在互聯(lián)網(wǎng)時代來臨之前,人類的一切發(fā)明都是基于人類的主動使用,使某項新發(fā)明能為人類服務(wù)。但如今,技術(shù)正無時無刻不在想方設(shè)法吸引人的注意力,甚至希望能“操控”人的想法并從而獲利!渡缃焕Ь场分刑岬,“一切產(chǎn)品都以營利為目的,但是當這些產(chǎn)品都免費時,那么你就是產(chǎn)品。”

  對互聯(lián)網(wǎng)公司而言,人的注意力正在成為被“精心設(shè)計”的對象——用戶的增長、用戶使用的時間延長,甚至對用戶想法的操控,都能換來更多的利潤。用戶就是能夠“自主長大”的產(chǎn)品。

  確實,很多人已經(jīng)發(fā)現(xiàn),信息推送不僅越來越精準,且很多推送是基于個人喜好,由算法算出來的。有時候,這些推送并不是以事實為依據(jù),其中夾雜著偏激甚至錯誤的觀點,只為迎合用戶。隨著個人偏好在這些推送中被不斷加強,每一個人基于這些推送信息而“看”到的世界也由此顯得不同。

  在算法“包圍”中,人將變得越來越焦慮、脆弱?

  當算法對人類的愛好和行為預測越來越準確時,越來越多的成年人或未成年人在這樣融合心理學和腦科學的算法“包圍”中,也許會變得越來越焦慮、脆弱。學會和機器相處,應該是每一個人面對未來所必須儲備的能力。

  在同濟大學任教的劉翠蓮有多年從事心理咨詢服務(wù)的經(jīng)驗。據(jù)她觀察,這一代00后、10后,都是在現(xiàn)實世界和虛擬世界同時存在的平行世界中成長起來,他們已習慣網(wǎng)絡(luò)上的日常社交,包括點贊、評論等。但事實上,無論是點贊還是評論,這些社交界面的功能開發(fā),也都是根據(jù)心理學原理精心設(shè)計的。對未成年人來說,短期反饋容易讓人獲得短暫的滿足感,且會讓他們不斷地追求這樣的滿足。但這種“誘導”機制,或許也會成為他們心理壓力的來源。

  “人和任何技術(shù)或機器之間都存在互動,可能是人控制機器,也可能是人被機器控制!鄙虾<~約大學教授張崢始終認為,技術(shù)是中性的,就像使用搜索引擎時,每當你搜索一個詞,推送給你的第一個頁面的前10個結(jié)果一定是根據(jù)你的習慣和偏好精心裁剪過的,目的就是讓你喜歡這個搜索結(jié)果,從而持續(xù)地用這個搜索引擎!巴锰幷f,這種設(shè)計是為了提升用戶粘性;往壞處說,也可以理解為通過強化你的偏好,更容易‘操控’你!

  更多科學研究,應關(guān)注人與機器的交互

  和人工智能技術(shù)發(fā)展速度相比,人工智能倫理研究則顯得落后。不少學者在接受記者采訪時都談到,當下的人工智能發(fā)展使得人與機器的關(guān)系越來越復雜,人工智能的安全性、可靠性、可信度以及在如何符合人類價值觀等方面,都生發(fā)出很多值得探索的全新科學問題。

  就在不久前,浙江大學心理科學研究中心和心理學系的三位學者聯(lián)合發(fā)表文章,提出必須將“人-AI交互”作為新的研究領(lǐng)域,并勾畫了具體的研究框架,倡導學科交叉合作,目標是確保人工智能造福人類。

  幾位學者不約而同地談到,不恰當?shù)娜斯ぶ悄芗夹g(shù)開發(fā)已導致了不少傷害人類的事故。僅僅在學術(shù)界認可的“AI事故數(shù)據(jù)庫”里就已記錄了1000多起事故,如自動駕駛汽車撞死行人、交易算法錯誤導致市場“閃崩”等?紤]人工智能的價值觀等問題,并不是為時過早,其必要性和緊迫性日益凸顯。

  有學者呼吁,心理學本身是關(guān)注人的學科,而從學科發(fā)展來看,未來的心理學不僅要更加關(guān)注人本身,還應關(guān)注人如何與機器打交道。作為心理學的分支,在中國目前已有工程心理學,這個學科的核心科學問題,就是研究在開發(fā)復雜系統(tǒng)中,如何保證技術(shù)與人的心理、生理規(guī)律相匹配,以便于人的理解和操作,使得整個人—機系統(tǒng)的效能達到最佳狀態(tài)。

  復旦大學計算機教授張軍平也認為,技術(shù)本身有其發(fā)展邏輯,但是當技術(shù)與心理學、腦科學的融合越來越密切時,確實應該加強對人與技術(shù)的交互關(guān)系研究,并且更客觀、更審慎地對待技術(shù)。

編輯:陳少婷