首页
我的动态
我的摄影集
关于我
ZHD的小窝
行动起来,活在当下
累计撰写
84
篇文章
累计创建
54
个标签
累计收到
1
条评论
栏目
目 录
CONTENT
算法-ZHD的小窝
以下是
算法
相关的文章
2025-06-09
AI大模型学习之路(六)
阶段1:基础知识储备 第五课:概率论基础及其在模型训练中的应用 学习目标 掌握常见概率分布(高斯、伯努利)的定义与性质。 理解贝叶斯定理及其在分类任务中的应用。 学会极大似然估计(MLE)的原理与计算方法。 实战:用MLE求解线性回归参数,对比梯度下降结果。 1. 概率分布 (1) 高斯分布(正态分
2025-06-09
0
0
0
AI
算法
2025-05-19
AI大模型学习之路(五)
阶段1:基础知识储备 第四课:信息论基础及其应用 学习目标 理解信息熵、交叉熵与KL散度的定义与物理意义。 掌握交叉熵作为分类任务损失函数的设计原理。 学会用PyTorch实现交叉熵损失函数。 实战:用交叉熵损失训练逻辑回归模型。 1. 信息熵(Entropy) (1) 定义 信息熵:度量随机变量的
2025-05-19
7
0
0
算法
AI
2025-05-19
AI大模型学习之路(四)
阶段1:基础知识储备 第三课:微积分基础 学习目标 理解导数与偏导数的定义及其几何意义。 掌握链式法则在神经网络反向传播中的应用。 学会梯度下降法的原理与实现。 实战:用梯度下降法优化线性回归模型。 1. 导数与偏导数 (1) 导数(Derivative) 定义:函数在某一点的瞬时变化率 f'(x)
2025-05-19
13
0
0
算法
AI
2025-04-17
示例:简单神经网络中的链式法则与反向传播
示例:简单神经网络中的链式法则与反向传播 网络结构: 输入: x = 2 线性层: z = w \cdot x + b (参数: w = 1 , b = 0 ) 激活函数:Sigmoid a = \sigma(z) = \frac{1}{1 + e^{-z}} 损失函数:平方损失 L = (a
2025-04-17
15
0
0
算法
AI
2025-04-17
微积分中链式法则和反向传播
微积分中链式法则和反向传播 链式法则和反向传播是微积分和机器学习中的两个重要概念。链式法则是微积分中的一个基本求导法则,而反向传播则是深度学习中用于训练神经网络的关键算法。 链式法则 链式法则用于求复合函数的导数。假设有两个函数 y = f(u) 和 u = g(x),那么复合函数 y = f(g(
2025-04-17
8
0
0
算法
2022-10-19
一致性算法Raft
Raft是一种用于分布式系统中保持一致性的共识算法,旨在提供比Paxos更易于理解和实现的替代方案。它的基本原理可以分为以下几个关键部分: 领导者选举:Raft通过选举一个领导者来管理日志的复制。系统中的节点(或服务器)有三种状态:领导者、跟随者和候选者。当一个跟随者未收到来自领导者的消息后,它会变
2022-10-19
26
0
0
算法