VR内のセクハラに似た話って、25年くらい前もあったよね
2人に1人の女性がVR内でセクハラ被害に 米リサーチ会社が公開した現状と対策|Real Sound|リアルサウンド テック
この調査におけるセクハラの定義は「性的な発言を投げかける」「卑猥な画像を見せる」「しつこくつきまとう」「被害者の身体をまさぐる素振りを見せる」などの行為を他のユーザーから受けたことにより、不快な経験をしたことを指す。 |
ってニュースになってたんだけど、正直、昔からある事象で 予期できた話なのに、VR のシステムがそういった考慮が全くされていない点に驚かされる
HabitatII の概要
富士通がやってた、自分の分身であるアバターを操ってコミュニケーションするチャットシステムがあったり、したのですが、約25年前から存在した、コミュニティでも似たようなことがあったのを思い出した。
当時あったのは
・性的な発言を発信しながらまとわりつく
・卑猥な画像を見せる。または卑猥な画像へのリンクを見せる
・複数のアカウントや嘘を駆使して、個人情報を引き出して悪用する。
こんなかんじ。
運営に通報してもあまり対応はまともにとってもらえなかった覚えがある。
どうやって、対応してたかというと、メールで、危険ユーザーの情報を共有して配布したりしてたのを思い出した・ω・
こういうのは、 Yahoo! Chat や 古くは PC-VAN や NIFTY-SERVER の CBなどでも見られたものだなぁと
VR でこういった問題を解決するには、
承認やブロックのシステムや
個人ユーザーの評価システムの見える化
などをシステムに入れるしかないかなぁと思ってる
ちなみに、昔のコミュニティシステムって、結構 ザルだったので、
ユーザーIDから、本名や性別や住んでる都道府県まで表示する機能があったり、
(デフォルトで表示で、設定で非公開にはできた)
今思うと、重大犯罪の温床によくならなかったなぁ、と思えることも少なく無かったりする(笑)
悪く言えば学習してないんですね。
当時運営、開発していた人が関わってないのか、またはリスクマネジメントが出来てないのか分かりませんが。
システム進化しても、使ってる人間って生き物の本質は、たいして変わらないのに、
リスクマネジメントが全くできてないってことだと思います。
Windows 最新バージョンで、古いバージョンで発生した不具合が再現するのに
すごくにてますね