机器学习 | 神经网络 | 深度学习

白天 夜间 首页 下载 阅读记录
  我的书签   添加书签   移除书签

【未完】Gensim

浏览 300 扫码 分享 2023-02-17 07:30:01

    参考来源:
    https://radimrehurek.com/gensim/
    文档:https://radimrehurek.com/gensim/auto_examples/index.html#documentation
    API:https://radimrehurek.com/gensim/apiref.html
    简书:15分钟入门 NLP 神器—Gensim

    若有收获,就点个赞吧

    0 人点赞

    上一篇:
    下一篇:
    • 书签
    • 添加书签 移除书签
    • GPU 利用率低常见原因分析及优化
    • Pytorch 框架训练营
      • 第六周
    • 评估指标
      • ROC 及 AUC 计算方法及原理
      • 机器学习常见的几种评价指标:精确率(Precision)、召回率(Recall)、准确率(Accuracy)、F值(F-measure)、ROC 曲线、AUC
      • 交叉验证(cross validation) / 5-fold cross-validation
    • GNN/图神经网络
      • GCN/图卷积神经网络
      • 【未完】GAT-图注意力网络,Graph Attention Networks
    • 【未完】GIN
    • Encoder-Decoder、Seq2Seq 以及它们的升级方案Attention。
    • 注意力机制(Attention Mechanism)
    • Transformer(Attention Is All You Need)
    • RNN-循环神经网络(Recurrent Neural Network, RNN)
      • LSTM-长短期记忆(Long short-term memory, LSTM)
      • GRU-门控循环单元
    • 监督学习和无监督学习
    • PyTorch Geometric
      • PyTorch-Geometric/torch-geometric 的安装
      • PyG-使用 networkx 对 Graph 进行可视化
      • class MessagePassing()
      • torch_geometric\utils\scatter_ 方法源码解析及样例
    • Pytorch
      • torch.tensor.scatter() 和 torch.gather() 函数
      • masked_fill_() 和 masked_fill()
      • F.softmax() 和 F.log_softmax
      • Pytorch 矩阵乘法之 torch.mul() 、 torch.mm()、torch.bmm() 及 torch.matmul() 的区别
      • 超平实版 Pytorch Self-Attention:参数详解(尤其是 mask)(使用 nn.MultiheadAttention)
      • torch.einsum()——爱因斯坦求和约定
      • 知乎:PyTorch 有哪些坑/bug?
      • 模型
        • 【未完】PyTorch学习之归一化层(BatchNorm、LayerNorm、InstanceNorm、GroupNorm)
          • torch.nn.LayerNorm
        • 【未完】torch.nn.Module 类
        • torch.nn.Sequential 类
        • 使用 torch.nn.Module 来自定义模型和网络层
        • 模型创建 Module、模型容器 Containers 及 AlexNet 网络搭建
        • 保存和加载模型
        • 冻结特定层的参数
        • 模型的保存与加载、模型微调、以及 GPU 的使用
        • torch.nn.Module 中的 training 属性以及 model.train() 和 model.eval()
      • 权值初始化
      • 优化器(Optimizer)
        • 使用 ReduceLROnPlateau 来更新学习率——Pytorch
        • Optimizer/torch.optim.Optimizer
        • optimizer.zero_grad()、loss.backward()、optimizer.step() 的作用及原理
      • torch.max()
      • utils.dropout_adj()
      • torch.utils.data
        • 划分数据集-torch.utils.data.random_split()
        • torch.utils.data - 自定义数据集
      • 训练类别不均衡数据、重采样、权重采样器
      • Tensor 的类型转换
        • tensor torch 构造稀疏矩阵
      • Tensor.mean() 与 torch.mean()
      • 维度变换与 tensor 拼接
        • torch.contiguous() 方法
        • reshape() 和 view()
        • tensor.permute() 和 torch.transpose()
        • repeat() 和 expand()
        • squeeze() 和 unsqueeze()
        • torch.cat() 与 torch.stack()
      • 【未完】sklearn.decomposition.PCA
      • sklearn.metrics
        • classification_report
        • accuracy_score
      • nn 与 nn.functional
      • torch.nn.Embedding
      • torch.nn.parameter.Parameter
      • 过拟合
        • mini batch(部分增量更新)
        • 早停法(Early Stopping)
        • 在 Pytorch 中实现 early stopping
      • 梯度剪裁 - torch.nn.utils.clip_grad_norm_()
      • Pytorch 的常见报错
        • please use torch.load with map_location=torch.device('cpu') to map your storages to the CPU
        • CUDA out of memory./CUDA 内存不足。
        • 【未完】RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn
    • 【未完】Gensim
      • 【未完】Gensim 的 model.keyedvectors 模块——NLP 工具
      • 【未完】基于 Gensim 的 Word2Vec 实践
    • 缩放指数线性单元(scaled exponential linear units,selu)和自归一化网络(SNN)
    • 损失函数Loss
    • 情绪识别
      • 面部表情识别
      • 人脸识别-face_recognition库
    • 学习计划
    • 读书笔记
    暂无相关搜索结果!

      让时间为你证明

      展开/收起文章目录

      分享,让知识传承更久远

      文章二维码

      手机扫一扫,轻松掌上读

      文档下载

      请下载您需要的格式的文档,随时随地,享受汲取知识的乐趣!
      PDF文档 EPUB文档 MOBI文档

      书签列表

        阅读记录

        阅读进度: 0.00% ( 0/0 ) 重置阅读进度

          思维导图备注