北京西二旗租房攻略 0x01 租房目标的确定租房是希望在一定的成本范围内找到满足自己最大效用的方式。可以从货币成本、个人喜好、社会经济因素来观察。每个人的效用具有不同个人差异性,但是租房经验往往是可以互相参考的,这也是互联网平台传播的意义所在。分享你所看到的,来铸造集体的记忆。 0x02 租房平台NOTE:租房平台越规范,信息获取越容易,但是价格也会更高 租房平台按照熵增的顺序可以分为: 基于互联网和算法:自如、安 2024-04-29 生活杂谈 #租房 #西二旗 #实习生 #短租
Meta quest3 使用折腾指南 Quest3作为一台头戴眼镜内设备,针对现在依赖手机、电脑的工作方式,天然具有“反链接“的特点,同时在国内难以魔法上网和校园网奇葩的路由器的情况,如何顺利的享受虚拟世界的乐趣是一件非常困难的工作。因此在本文总结自己踩过的坑作为记录。 引言对于一些教程用一些未见过的语言来描述 Quest3 的使用过程,实际上是对小白自信心的一次打击,此时针对拿到手,需要了解的事情做一个总结,也就是“拿到 Quest 2024-04-29 生活杂谈 #quest3 #AR 眼镜 #科学上网 #新奇硬件
Python 绘图完整教程 0x00 Basic setting What is matplotlib? Matplotlib is a comprehensive library for creating static, animated, interactive visualization in Python. We can as follows: 创建高质量的图片 创建可以交互的、放大、拖动、更新的图片 定制化风格 2024-04-29 程序设计 #文档阅读 #Python 可视化 #绘图教程
GEATPY 文档阅读 | 面向过程解决 TSP 问题 各种启发式方法很复杂,当时一般不需要自己手动实现,python中找到GeatPy是个还不错的包,geatpy 是 Python 中的一个进化算法库,专门用于解决复杂的优化问题。它基于遗传算法和进化策略,提供了一个高效、灵活的工具集,用于处理各种优化问题。本文以TSP问题为基础,介绍面向过程,这种最基本也是最直观的想法来介绍库中的基本API。 一、问题描述TSP问题需要从起始点出发,经过每个点一次, 2024-04-29 交通工程 #运筹优化 #启发式算法 #TSP 问题
数据结构和算法基础 Vol9 对于图的基础认识和问题描述,进而给出基本的图遍历求解问题的思路 0x01 对于图的基本认识对于数据结构的存储无非就是“增删改查”,所以对于图(Graph)的认识也可以从这个角度出发。 不过与基本的数组和链表不同的是,数组作为顺序存储、链表作为链接存储更多的是代表计算机存储的一种方式,是更为适合计算理解而对人类不友好的;图作为一个存在日常生活中的数据结构,可以很容易的被人理解,但是往往在计算机存储中 2024-04-29 程序设计 #数据结构 #图 #遍历
数据分析和算法基础 Vol9 堆栈 Stack是一种线性表数据,只允许在表的一端进行插入(push)和删除(pop)操作。堆栈的好处在于操作时间为线性的。因此可以极大的提供效率。最基本的题目是《T20 有效的大括号》,而在其中更加复杂的是单调栈: 单调栈(Monotone stack):一种特殊的栈,在先进先出的基础上,要求从top到bottom的元素是单调的(单调递增 or 单调递减) 0x01 理解单调栈维护一个单调 2024-04-29 程序设计 #单调栈 #复习 #力扣刷题
CS229 机器学习 Vol14| GBDT 与 Kaggle 回顾说明是基于树的集成学习,同时给出基本的随机森林和Adaboost解释,以及GBDT的两种工程实现XGboost和lightGBM的介绍,并用实际的Kaggle例子解释使用。 0x01 树(Tree)与集成学习(Ensemble learning)1.1 什么是决策树在之前的文章已经提到过 决策树CART与手撕代码,决策树是一类基于分治思想的非参数的机器学习方法。通过自上而下的树形拆分对数据进行 2024-04-29 算法基础 #梯度提升树 #面试技巧 #Kaggle 比赛
数据结构和算法基础 vol8 重新回顾二分查找必要的细节 0x01 算法想法二分查找(Binary search algorithm),是在数组章节第一次体会到算法精神的算法。其基本思想是:先确定待查元素的范围,之后以某种方式缩小范围,直到到达某种条件为支。很while 其基本的算法思想是“减而治之”,和分而治之类似,但是更加的巧妙的是在于如何减小问题的规模或者排除问题。二分查找算法流程为: 每次查找从数组的中间元素开始,如 2024-04-29 程序设计 #二分查找 #数组
动手学深度学习 Vol8 | transformer 总结和解释 这次详细介绍一下transformer框架,以及潜在的想法。在我心中这个是和Alexnet一样的文章。主要从基于RNN的encoder-decoder缺陷中引入attention,并从并行的角度完全引入attention。在第二章介绍attention的机制,在第三章介绍相关的论文细节。在第四章介绍基于torch的实现过程。参考了很多文章! 0x01 从RNN到Attention的Encoder- 2024-04-29 算法基础 #机器学习 #深度学习 #attention、 #transformer
动手学深度学习 Vol7 | 如何理解 rnn 中的循环 相比较MLP和CNN,RNN结构仿佛尤其的神秘。相比较更加直观的可视化,实现端到端的输出,包含隐藏状态(Hidden state)的时序建模方式对于RNN代码的理解真是尤其的困难。虽然Torch为我们提供封装好函数,但是我更加希望去探索其封装借口背后的结构,来提高自己的理解能力。 0x01 缘起相比较MLP和CNN,RNN结构仿佛尤其的神秘。相比较更加直观的可视化,实现端到端的输出,包含隐藏状态( 2024-04-29 算法基础 #深度学习 #RNN #循环神经网络