最常用去重方式是[...new Set(arr)],时间复杂度O(n),支持NaN相等判断但对象需按key去重;对象数组推荐Map缓存key实现O(n)过滤;IE或稀疏数组需回退filter+indexOf。
最常用也最快的去重方式是 Array.from(new Set(arr)) 或展开运算符写法 [...new Set(arr)]。它时间复杂度接近 O(n),底层依赖引擎对 Set 的哈希优化。
但要注意:Set 判等基于 SameValueZero(即 === 规则),所以 NaN 和 NaN 被视为相等,能正确去重;而对象即使内容相同,引用不同就仍是不同元素——{a:1} 和 {a:1} 不会去重。
[...new Set(arr)] 是首选filter() + indexOf() 会慢且不稳定(indexOf 总从头找)对 [{id:1,name:'a'}, {id:2,name:'b'}, {id:1,name:'c'}] 这类数据,得靠 Map 或临时键值索引。直接用 JSON.stringify 对比性能差、还可能因属性顺序或 undefined 导致误判。
推荐用 Map 缓存已见的 key 值:
const uniqueByKey = (arr, key) => {
const seen = new Map();
return arr.filter(item => {
const k = item[key];
if (seen.has(k)) return false;
seen.set(k, true);
return
true;
});
};
// 使用:uniqueByKey(list, 'id')
findIndex 查找快一个数量级(O(n) vs O(n²))item.a + '|' + item.b)Set 一致[...new Set(arr)] 在 IE 完全不支持,且对稀疏数组(如 [1, , 3])会展开为 [1, undefined, 3],丢失“空位”语义。如果项目仍需支持旧环境,或明确要保留稀疏性,就得回退到传统方法。
filter() + indexOf() 最兼容,但性能差,仅适合小数组(
includes() 或哈希对象记录已见值,可控性强undefined 更安全实际业务中,去重往往不是终点。比如从后端拿到用户列表后去重,紧接着要渲染、排序、分页。这时候如果在每一步都生成新数组(如先去重、再 sort()、再 slice()),内存和 GC 压力会明显上升。
map()、filter()、sort() 都返回新数组,连续三次调用 = 三份内存拷贝for 循环合并逻辑(例如边遍历边去重+筛选+计数)new Set(arr).size === arr.length 比全量去重快得多[...new Set(arr)] 就够了;剩下那 10%,真正卡住你的往往不是去重算法本身,而是没想清楚“去重之后要拿这个数组干什么”。