實驗數據中是否可以捨去少數顯著不合理的部分?判據是怎樣的?

據我所知似乎是已有工作分析過這一問題的。


看是啥實驗了。。

如果是機制原理都已經眾所周知的實驗,反常數據隨手就能扔。。而如果原理尚不明確,一個反常數據可能就能殺死一票競爭理論,這可就扔不得了。。

說到底,可重複性才是關鍵。。

然而我的實驗還是重複不出來。。(╯‵□′)╯︵┻━┻


你要是單純的做性能測試,發論文,我不知道有多少人會捨去不合理數據,我猜至少一多半的人,即使理論上這是不可以的。

如果是做機理,發論文,我強烈不建議這麼做,很多時候看似不合理的數據,是有深刻的物理意義在後面的,搞清楚的話,可能會柳暗花明,大大增加研究的價值。

如果是做產品研發的,絕對不要這麼做。產品一賣就是成千上萬,一用就是好多年,各種使用環境,測試的時候一定要照顧到,哪怕出現一個不好的數據,也要去仔細推敲是不是安全性和可重複性有問題。即使找不到原因,寧可乘上一個安全係數,也不能激進。三星電池爆炸就是個反例。


謝邀。一看就是大學分析化學沒學好,看上冊的化學分析去。


謝邀。

題主,告訴你一個秘密。實際上不僅僅是顯著不合理的數據,包括合理但不好看的數據,很多人都是去除的。


確實有一些方法用來判斷是否該捨棄數據,不過方法並不唯一。

以下內容摘自《原子核物理實驗方法》:


這麼做要非常小心

物理上一般不贊同這種做法,如果一定要用,就應該在方案設計的時候明確,不要看到數據之後再去「剔除「.....

如果真的測出 2.81, 2.82, 2.79, ..... , 2.30, ..... 有選擇的情況下,我們可以廢掉這一組數據,而不是單純扔掉 2.30.... 除非 2.30 是『在意料之中』的『系統誤差』,但那樣捨棄方式就應該在實驗方案中提前明確了....

如果你扔掉 2.30 然後得到一個結果..... 那就說服力就不太好了....

當然,「有時候誤差100%也是好實驗」.....


謝邀,不過知乎上有蠻多討論的了,容我偷個懶,隨便搜幾個,比如

從數據集中剔除異常數據一般用什麼數據演算法?

檢測異常值的常用方法,除了超過幾倍標準差,還有哪些?


就我多年前打醬油的經驗來看,多數時候事情往往相反——

不是從漂亮的數據中將少數難看的摘出去,這種運氣太奢侈了;而是從海量的屎一樣的波形中摳出一點點長得不那麼噁心的,猥猥瑣瑣水一篇三五分。


謝邀。可以做Q test。


或許。。。

可以去看看分析化學教材?


你的文章連可發表性都沒有……


推薦閱讀:

5萬多行數據用excel做地圖經常卡死,除了換電腦,還有什麼好的方法解決?
如何利用SAS使得程序更加標準化、自動化一些,減少人工操作,從而提高運行效率?
用 C++ 實現 Spark 有意義嗎?
矩陣補全(matrix completion)的經典演算法有哪些?目前比較流行的演算法是什麼?
處理金融數據為什麼要對數化?

TAG:科研 | 實驗 | 實驗物理 | 數據處理 |