transformers in tabular tiny survey 2024.4.8

推荐阅读

TabLLM

pmlr2023,

Few-shot Classification of Tabular Data with Large Language Models

方法

使用把tabular数据序列化成文字的方法进行classification。
使用的序列化方法有几个,有人工也有AI生成。

效果

做few shot learning的效果
看上去一般。

TransTab

Learning Transferable Tabular Transformers Across Tables

方法

属于transfer learning的方法。对category、binary和numeric值进行embedding后再进行transformers最后进行classification。

使用场景

原文:

  • S(1) Transfer learning . We collect data tables from multiple cancer trials for testing the efficacy

of the same drug on different patients. These tables were designed independently with overlapping

columns. How do we learn ML models for one trial by leveraging tables from all trials?

  • S(2) Incremental learning . Additional columns might be added over time. For example, additional

features are collected across different trial phases. How do we update the ML models using tables

from all trial phases?

  • S(3) Pretraining+Finetuning . The trial outcome label (e.g., mortality) might not be always available

from all table sources. Can we benefit pretraining on those tables without labels? How do we finetune

the model on the target table with labels?

  • S(4) Zero-shot inference . We model the drug efficacy based on our trial records. The next step is to

conduct inference with the model to find patients that can benefit from the drug. However, patient

tables do not share the same columns as trial tables so direct inference is not possible.

效果

具体看原文吧,与当时的baseline比有提升。

MET

Masked Encoding for Tabular Data

tabtransformer

2020年,arxiv,TabTransformer: Tabular Data Modeling Using Contextual Embeddings

方法

transformer无监督训练,mlp监督训练。

原文

we introduce a pre-training procedure to train the Transformer layers using unlabeled data . This is followed by fine-tuning of the pre-trained Transformer layers along with the top MLP layer using the labeled data

效果

跟mlp

跟其他模型

tabnet

2020, arxiv,Google Cloud AI,Attentive Interpretable Tabular Learning, 封装的非常好,都可以当工具包使用了。

方法

跟transformer没关系的。
feature selection用的是17年的某个选择模型,最后agg一下做predict。

相关推荐
敏叔V5872 分钟前
AI智能体的工具学习进阶:零样本API理解与调用
人工智能·学习
徐小夕@趣谈前端10 分钟前
拒绝重复造轮子?我们偏偏花365天,用Vue3写了款AI协同的Word编辑器
人工智能·编辑器·word
阿里云大数据AI技术11 分钟前
全模态、多引擎、一体化,阿里云DLF3.0构建Data+AI驱动的智能湖仓平台
人工智能·阿里云·云计算
陈天伟教授11 分钟前
人工智能应用- 语言理解:05.大语言模型
人工智能·语言模型·自然语言处理
池央13 分钟前
CANN GE 深度解析:图编译器的核心优化策略、执行流调度与模型下沉技术原理
人工智能·ci/cd·自动化
七月稻草人16 分钟前
CANN ops-nn:AIGC底层神经网络算力的核心优化引擎
人工智能·神经网络·aigc·cann
种时光的人16 分钟前
CANN仓库核心解读:ops-nn打造AIGC模型的神经网络算子核心支撑
人工智能·神经网络·aigc
晚霞的不甘18 分钟前
守护智能边界:CANN 的 AI 安全机制深度解析
人工智能·安全·语言模型·自然语言处理·前端框架
谢璞20 分钟前
中国AI最疯狂的一周:50亿金元肉搏,争夺未来的突围之战
人工智能
池央20 分钟前
CANN 算子生态的深度演进:稀疏计算支持与 PyPTO 范式的抽象层级
运维·人工智能·信号处理