你都熟悉哪些常用的机器学习算法?
回答·7
最热
最新
- 多层神经感知 mlp 算子。
- 本菜鸡简单说一哈。 传统机器学习方面,单模型,先说有监督,k 近邻,朴素贝叶斯,线性回归,逻辑回归,SVM,决策树(ID3,C45,CART);无监督,层次聚类,kmeans,DBSCAN,还有一些基于线性回归的聚类方法 TClustReg。当然,有监督那里好像又可以分为判别式模型和生成式模型,记不太清了。 集成模型,boosting 算法 adaboost,GBDT,XGBoost,lgbm 还没看;bagging 算法随机森林。 深度学习,基本的 DNN,CNN,RNN,深入一点的自监督学习有 autoencoder,selfattention 以及后面的 transform 和 bert,这个里面也包括 word2vector 这样的操作,还有对抗神经网络 GAN,以及一些烂七八糟的小东西。 当然其中穿插了优化算法求解,从最开始的梯度下降到 SGD,但 adagrad momentum 以及现在最常用的 Adam,其中的 warmup 操作等等。损失函数正则项等等。 知识太多了,都属于理论知识,项目能做点小课程作业,工作中只用到了比较传统的两种线性回归 lasso 和 ridge,努力学习吧。
- 1. 线性回归(Linear Regression):用于建立输入特征与连续目标变量之间的线性关系模型。 2. 逻辑回归(Logistic Regression):用于建立输入特征与二分类或多分类目标变量之间的概率关系模型。 3. 决策树(Decision Tree):通过构建树形结构,根据输入特征进行分类或回归预测。 4. 随机森林(Random Forest):基于多个决策树构建的集成学习模型,用于分类和回归问题。 5. 支持向量机(Support Vector Machines):通过在特征空间中构建超平面,实现分类和回归任务。 6. 朴素贝叶斯(Naive Bayes):基于贝叶斯定理和特征条件独立性假设,用于分类任务。 7. K 近邻算法(K-Nearest Neighbors):根据输入样本的最近邻进行分类或回归预测。 8. 主成分分析(Principal Component Analysis,PCA):用于降低数据维度和提取主要特征的无监督学习算法。 9. 聚类算法(Clustering):如 K 均值聚类(K-Means Clustering)和层次聚类(Hierarchical Clustering),用于将样本划分为不同的组别。 10. 神经网络(Neural Networks):由多个神经元层组成的网络,用于模拟复杂的非线性关系和解决各种机器学习问题。 这些是常见的机器学习算法,每个算法都有其适用的问题和特点。在实际应用中,根据具体任务和数据情况选择合适的算法是很重要的。
- 我知道个毛线 我又不是工程师
- 熟悉机器学习算法有语义分割和目标检测
- ANN, PLS, Multivariable Linear Regression, SINDy, K-Means
- 神经网络 svm arch 自回归滑动平均值 lstm
相似问题
推荐关注
正在加载中...