未来50年人类活动或导致1700个物种濒临灭绝

【环球网科技综合报道】 据英国《每日邮报》3月4日报道,耶鲁大学的研究人员预测,目前人类不断扩张土地利用面积,约30%到50%的生物栖息地已被占用,到2070年多达1700个物种将濒临灭绝。

目前,科学家们将世界范围内约19,400个物种的地理分布信息及栖息地变化情况相结合进行分析,研究结果表明,人类在全球范围内不断扩张土地利用面积,到2070年多达1700种两栖动物、鸟类及哺乳动物将由于失去自然栖息地而面临灭绝。

未来50年人类活动或导致1700个物种濒临灭绝

耶鲁大学生态学家通过研究土地利用变化对未来生物多样性(即在特定栖息地动植物多样性)的影响,同时基于人口增长及全球社会经济变化等可能导致增加土地使用的现实因素,将人类最可能扩张的区域与19,400个物种栖息地进行比较。研究人员发现,886种两栖动物、436种鸟类及376种哺乳动物将失去自然栖息地,濒临灭绝。

据此项研究还表明,栖息地位于中非、东非、中美洲、南美洲及东南亚的物种,例如南苏丹的大角驴羚,将遭受大面积栖息地丧失以及更严重的灭绝威胁。据预测,在未来50年间,所有这些国家的自然栖息地范围都将缩小一半左右。

潜在扩张路径代表未来社会发展、人口结构及经济的“合理预期”。耶鲁大学教授Walter Jetz表示,该研究是将这些看似合理的未来预期与其对生物多样性的影响相联系,通过分析政治及经济决策对全球土地覆盖相关变化的影响——研究其如何导致全球物种栖息地范围的减少。

杰茨教授警告称,不要想当然地认为,这些威胁仅出现在单个国家。物种数量的锐减对生态系统功能及人类生活质量的影响是不可逆转的,因而人类应当共同承担保护责任。(实习编译:马妍 审稿:刘洋)

前途

未来50年人类活动或导致1700个物种濒临灭绝

【环球网科技综合报道】 据英国《每日邮报》3月4日报道,耶鲁大学的研究人员预测,目前人类不断扩张土地利用面积,约30%到50%的生物栖息地已被占用,到2070年多达1700个物种将濒临灭绝。

目前,科学家们将世界范围内约19,400个物种的地理分布信息及栖息地变化情况相结合进行分析,研究结果表明,人类在全球范围内不断扩张土地利用面积,到2070年多达1700种两栖动物、鸟类及哺乳动物将由于失去自然栖息地而面临灭绝。

未来50年人类活动或导致1700个物种濒临灭绝

耶鲁大学生态学家通过研究土地利用变化对未来生物多样性(即在特定栖息地动植物多样性)的影响,同时基于人口增长及全球社会经济变化等可能导致增加土地使用的现实因素,将人类最可能扩张的区域与19,400个物种栖息地进行比较。研究人员发现,886种两栖动物、436种鸟类及376种哺乳动物将失去自然栖息地,濒临灭绝。

据此项研究还表明,栖息地位于中非、东非、中美洲、南美洲及东南亚的物种,例如南苏丹的大角驴羚,将遭受大面积栖息地丧失以及更严重的灭绝威胁。据预测,在未来50年间,所有这些国家的自然栖息地范围都将缩小一半左右。

潜在扩张路径代表未来社会发展、人口结构及经济的“合理预期”。耶鲁大学教授Walter Jetz表示,该研究是将这些看似合理的未来预期与其对生物多样性的影响相联系,通过分析政治及经济决策对全球土地覆盖相关变化的影响——研究其如何导致全球物种栖息地范围的减少。

杰茨教授警告称,不要想当然地认为,这些威胁仅出现在单个国家。物种数量的锐减对生态系统功能及人类生活质量的影响是不可逆转的,因而人类应当共同承担保护责任。(实习编译:马妍 审稿:刘洋)

es相同條件搜尋多次傳回結果不一樣

1. 背景介紹

業務方發現他們配置的資料源會傳回重複資料,主要展現為在翻頁的時候上一頁的最後一個資料和下一頁的第一條資料一模一樣, 場景和分頁問題極其相似

2. 分析過程

我最開始碰到這個bug的時候,就真的是以為隻是翻頁的問題,現象太容易引人誤會了. 結果我肉眼從接口到代碼到排查代碼傳參都沒問題.于是決定預發環境DEBUG,發現參數确實傳輸中沒有問題,那麼代碼問題就被排除,隻可能是基建問題. 于是我拿到真正執行的DSL, 直接去es中搜尋, 發現同一條DSL,短時間诶查詢的結果不一樣.

(注意: 我配置的 index refresh_interval為300s,可以排除是refresh資料導緻的問題)

3. 解決思路

既然已經分析出問題,那麼就開始研究es為什麼相同DSL多次查詢結果不一緻.可是對于我這個對es底層研究不夠深入的半吊子開發,想從原理上去尋找問題幾乎不太可能.

于是我把目标瞄準了es開放社群.[https://elasticsearch.cn/]

果然,在社群中早就有前人已經爬過這個坑了,我完全可以直接抄作業了!

4. 原理分析

出于性能考慮es在删除資料的時候,不會立即将資料從磁盤中删除,而是先将資料标記為已删除,然後在下次文檔合并的時候才會将資料從磁盤上清楚.是以,假設主碎片剛剛完成了一個大型合并,删除了許多已删除的文檔,那麼它的索引統計資訊可能與副本(仍然有大量已删除文檔)完全不同.

于是當我們兩次DSL查詢走了不同的分片,查詢到資料的排序結果自然不會完全相同, 是以會出現搜尋結果出現重複資料的情況.

5. 解決方案

es官方給出了,讓我們配置userId或者sessionId作為preference(相同的值會從相同的分片中查詢資料),可以解決此排序問題.

但是, 基于我對es的認知以及公司大佬carl的實踐,不通的查詢條件走不通的分片,可以更好的命中es的熱資料,大大降低伺服器的CPU消耗.是以我将除了start和limit的查詢條件的hashcode作為preference值來解決此問題

5. 代碼參考

if(cmd.getBody() != null) searchRequest.preference(cmd.getBody().toString().hashCode()+"");
           

6. 監控資料

es相同條件搜尋多次傳回結果不一樣
es相同條件搜尋多次傳回結果不一樣
es相同條件搜尋多次傳回結果不一樣

7. 參考文獻

https://www.elastic.co/guide/en/elasticsearch/reference/7.x/consistent-scoring.html