文献阅读:Deep Learning based Semantic Communications: An Initial Investigation

目录

论文简介

  • 作者

    Huiqiang Xie

    Zhijin Qin

    Geoffrey Ye Liy

    Biing-Hwang Juangy

  • 发表期刊or会议

    《GLOBECOM》

  • 发表时间

    2020.12

动机:为什么作者想要解决这个问题?

随着新应用的发展,需要开发新的通信系统以提高通信的准确性和效率,作者通过考虑bit背后的语义来开发智能通信系统

文中对语义通信系统的解释:

所考虑的语义通信系统主要关注语义层面的信源编码和信道编码,其目的是提取数字比特背后的语义信息,而不是简单地压缩比特序列的长度,然后对语义信息进行编码,以确保接收者能够恢复原始语义信息过度失真

(即使提取出来bit背后的语义信息,还是要对语义信息编码,这不还是在传输bit吗,一定意义上确实不是简单的压缩了,是复杂的压缩,hhhh......)


贡献:作者在这篇论文中完成了什么工作(创新点)?

  • 基于 Transformer提出了一种新颖的 DeepSC 框架,可以有效地从文本中提取语义信息。在该框架中,设计了联合语义-信道编码来应对信道噪声和语义失真
  • DeepSC的收发器由语义编码器、信道编码器、信道解码器和语义解码器组成。为了理解语义并同时最大化系统容量,接收器使用两个损失函数进行优化:交叉熵和互信息

<>
说白了,就是设计一个网络,再设计损失函数的套路;换个网络岂不是又是创新了


规划:他们如何完成工作?

  • 整体框架

    所考虑的系统模型由两个层次组成:语义层和传输层。语义层解决语义信息处理的编码和解码以提取语义信息;传输层保证语义信息能够在传输介质上正确交换。
    (语义层,虚线框里;传输层,虚线框外;这个semantic channel是抽象出来的概念吧)
    <>
    重要知识点:
    对于编码器和解码器的端到端训练,信道必须允许反向传播。物理信道可以通过神经网络来建模。例如,简单的神经网络可用于对加性高斯白噪声 (AWGN) 信道、乘性高斯噪声信道和擦除信道进行建模。而对于衰落通道,则需要更复杂的神经网络。在本文中,为了简单起见,我们主要考虑 AWGN 信道。

  • 神经网络框架

    本文的框架有两个技术需要关注:
    <>

    • 使用 DNN 联合设计发射器和接收器
      通过在DL中采用自动编码器结构,将E2E系统中的发送器和接收器作为E2E重建任务进行联合优化
    • 语义-信道联合编码
      为了实现语义级别的成功恢复,我们联合设计了语义和信道编码,以保持 s ^ \hat s s^和 s s s之间的含义不变,这是通过新的 DNN 框架实现的
      (语义-信道联合编码的意义就是为了保持 s ^ \hat s s^和 s s s之间的含义不变)
      [个人理解,这两项技术是通过设计不同的loss函数实现的]
      看一下神经网络的整体框架:
      <>

    发射机由语义编码器信道编码器组成,语义编码器用于从要传输的文本中提取语义特征,信道编码器用于生成符号以方便后续传输。语义编码器包括多个Transformer编码器层,信道编码器使用不同的全连接层;

    AWGN 信道被解释为模型中的一层;

    DeepSC 接收器将用于符号检测的信道解码器和用于文本估计的语义解码器组合在一起。信道解码器包括具有不同全连接层,语义解码器包括多个 Transformer 解码器层。

    损失函数定义为: L total = L C E ( s , s ^ ; α , β , χ , δ ) + λ L M I ( X , Y ; T , α , β ) \mathcal{L}{\text {total }}=\mathcal{L}{\mathrm{CE}}(\mathbf{s}, \hat{\mathbf{s}} ; \boldsymbol{\alpha}, \boldsymbol{\beta}, \boldsymbol{\chi}, \boldsymbol{\delta})+\lambda \mathcal{L}_{\mathrm{MI}}(\mathbf{X}, \mathbf{Y} ; T, \boldsymbol{\alpha}, \boldsymbol{\beta}) Ltotal =LCE(s,s^;α,β,χ,δ)+λLMI(X,Y;T,α,β)

    其中第一项是考虑句子相似性的损失函数,其目的是通过训练整个系统来最小化 s ^ \hat s s^和 s s s之间的语义差异(也就是语义-信道联合编码的loss)。第二个是互信息的损失函数,它最大化发射机训练期间实现的数据速率(也就是联合设计发射器和接收器的loss)。

    关于 L C E \mathcal{L}{\mathrm{CE}} LCE和 L total \mathcal{L}{\text {total }} Ltotal 具体介绍见论文II.A和II.B
    接下来我们要进行网络的训练:
    <>

    由于损失函数不同,DeepSC 的训练过程分为两个阶段。

    第一阶段是通过无监督学习训练互信息模型,损失函数为 L M I \mathcal{L}_{\mathrm{MI}} LMI,即联合优化发射器和接收器

    第二阶段是以 L total \mathcal{L}{\text {total }} Ltotal 为损失函数来训练整个系统( L C E \mathcal{L}{\mathrm{CE}} LCE包含在 L total \mathcal{L}{\text {total }} Ltotal 中,所以此过程也优化了语义-信道联合编码,猜测:之所以不把 L C E \mathcal{L}{\mathrm{CE}} LCE单独拎出来作为loss训练,是因为 L total \mathcal{L}_{\text {total }} Ltotal 作为损失函数效果更好)


理由:通过什么实验验证它们的工作结果

关于如何进行对比试验,具体见 论文 IV


自己的看法

语义通信较为早期的文章,并未对语义做具体的解释,通读文章后,给人的感觉语通信就是用神经网络咔咔组合,什么语义-信道联合编码,什么联合设计收发器,就是神经网络。

相关推荐
开MINI的工科男20 分钟前
深蓝学院-- 量产自动驾驶中的规划控制算法 小鹏
人工智能·机器学习·自动驾驶
AI大模型知识分享1 小时前
Prompt最佳实践|如何用参考文本让ChatGPT答案更精准?
人工智能·深度学习·机器学习·chatgpt·prompt·gpt-3
张人玉3 小时前
人工智能——猴子摘香蕉问题
人工智能
草莓屁屁我不吃3 小时前
Siri因ChatGPT-4o升级:我们的个人信息还安全吗?
人工智能·安全·chatgpt·chatgpt-4o
小言从不摸鱼3 小时前
【AI大模型】ChatGPT模型原理介绍(下)
人工智能·python·深度学习·机器学习·自然语言处理·chatgpt
AI科研视界4 小时前
ChatGPT+2:修订初始AI安全性和超级智能假设
人工智能·chatgpt
霍格沃兹测试开发学社测试人社区4 小时前
人工智能 | 基于ChatGPT开发人工智能服务平台
软件测试·人工智能·测试开发·chatgpt
小R资源4 小时前
3款免费的GPT类工具
人工智能·gpt·chatgpt·ai作画·ai模型·国内免费
artificiali7 小时前
Anaconda配置pytorch的基本操作
人工智能·pytorch·python
酱香编程,风雨兼程8 小时前
深度学习——基础知识
人工智能·深度学习