万象云档 本次搜索耗时 1.924 秒,为您找到 195 个相关结果.
  • 6.9 Trie树

    6.9 Trie树 方法介绍 1.1、什么是Trie树 1.2、树的构建 1.3、查询 问题实例 6.9 Trie树 方法介绍 1.1、什么是Trie树 Trie树,即字典树,又称单词查找树或键树,是一种树形结构。典型应用是用于统计和排序大量的字符串(但不仅限于字符串),所以经常被搜索引擎系统用于文本词频统计。它的优点是最大限度地减少无谓...
  • Redis 都有哪些数据类型?分别在哪些场景下使用比较合适?

    Redis 数据类型和使用场景 面试题 面试官心理分析 面试题剖析 Strings Hashes Lists Sets Sorted Sets Redis 数据类型和使用场景 面试题 Redis 都有哪些数据类型?分别在哪些场景下使用比较合适? 面试官心理分析 除非是面试官感觉看你简历,是工作 3 年以内的比较初级的同学,可能对技...
  • Redis 的过期策略都有哪些?手写一下 LRU 代码实现?

    Redis 的过期策略和 LRU 算法 面试题 面试官心理分析 面试题剖析 Redis 过期策略 内存淘汰机制 手写一个 LRU 算法 Redis 的过期策略和 LRU 算法 面试题 Redis 的过期策略都有哪些?内存淘汰机制都有哪些?手写一下 LRU 代码实现? 面试官心理分析 如果你连这个问题都不知道,上来就懵了,回答不出来,那...
  • 4.10.双向链表

    4.10 双向链表 概述 基本概念 双向链表是指含有往前和往后两个方向的链表,即每个结点中除存放下一个节点指针外,还增加一个指向其前一个节点的指针。其头指针head是唯一确定的。 从双向链表中的任意一个结点开始,都可以很方便地访问它的前驱结点和后继结点,这种数据结构形式使得双向链表在查找时更加方便,特别是大量数据的遍历。由于双向链...
  • 6.15 本章习题

    6.15 本章习题 本章海量数据的习题 6.15 本章习题 本章海量数据的习题 1 有100W个关键字,长度小于等于50字节。用高效的算法找出top10的热词,并对内存的占用不超过1MB。 提示:老题,与caopengcs讨论后,得出具体思路为: 先把100W个关键字hash映射到小文件,根据题意,100W_50B = 50_10^6B =...
  • 6.8 Bloom filter

    6.8 Bloom filter 方法介绍 一、什么是Bloom Filter 1.1、集合表示和元素查询 1.2、错误率估计 1.3、最优的哈希函数个数 1.4、位数组的大小 问题实例 6.8 Bloom filter 方法介绍 一、什么是Bloom Filter Bloom Filter,被译作称布隆过滤器,是一种空间效率很高的随...
  • transaction数据结构

    137 2025-05-17 《区块链开发》
    transaction数据结构 transaction数据结构 我们对比ethereum和ep的transaction的数据结构: 下面是ethereum的transaction的数据结构: type Transaction struct { inner TxData // Consensus contents ...
  • Shape

    136 2025-05-08 《G2 3.2 API 文档》
    Shape 获取方式:G2.Shape 通过在 Shape 上注册图形,实现自定义 Shape 的功能。 创建方式 自定义 Shape 的入口如下: 复制代码const Shape = G2 . Shape ; const shapeObj = Shape . registerShape ( 'g...
  • 第七题 KMP算法

    136 2025-05-31 《经典算法题》
    第七题 KMP算法 一:BF算法 二:KMP算法 第七题 KMP算法 在大学的时候,应该在数据结构里面都看过kmp算法吧,不知道有多少老师对该算法是一笔带过的,至少我们以前是的, 确实kmp算法还是有点饶人的,如果说红黑树是变态级的,那么kmp算法比红黑树还要变态,很抱歉,每次打kmp的时候,输 入法总是提示“看毛片”三个字,嘿嘿,就...
  • 有了解过 Redis rehash 的过程吗?

    Redis rehash 过程 面试题 面试官心理分析 面试题剖析 1. 为字典的备用哈希表分配空间。 2. 渐进式 rehash Redis rehash 过程 面试题 有了解过 Redis rehash 的过程吗? 面试官心理分析 这个知识点算 redis 中比较低频的面试点,但是当你在介绍 HashMap 的 rehash 或者 ...