FPGA:3-8译码器的设计

1、什么是3-8译码器?

3-8译码器,顾名思义,三个输入,八个输出,构成3-8译码器。根据二进制特性,三位二进制数有八种可能,对应的真值表如下所示(该译码器输出低电平有效):

3-8译码器(此处外面没有非门)的示意图如下:

2、FPGA实现3-8译码器

(1)设计定义:3个输入,可以对应3个开关,而8个输出,对应8个LED灯。

(2)和之前的第一节类似,创建design file(设计文件),并且编写verilog代码。

python 复制代码
module decoder_3_8_test(
	a,
	b,
	c,
	out  // 此处输出是8种可能,但是在这里只需要写端口名即可
);
input a;
input b;
input c;
output reg[7:0] out;
always@(*)
	begin
	case({a,b,c})
		3'b000:out=8'b0000_0001;
		3'b001:out=8'b0000_0010;
		3'b010:out=8'b0000_0100;
		3'b011:out=8'b0000_1000;
		3'b100:out=8'b0001_0000;
		3'b101:out=8'b0010_0000;
		3'b110:out=8'b0100_0000;
		3'b111:out=8'b1000_0000;
	endcase
	end
endmodule

(3)编写测试文件,命名为decoder_3_8_test_tb,测试文件如下:

python 复制代码
`timescale 1ns/1ps
module decoder_3_8_test_tb();
//例化
reg s_a;
reg s_b;
reg s_c;
wire [7:0] out;
decoder_3_8_test decoder3_8_test_inst0(
	.a(s_a),
	.b(s_b),
	.c(s_c),
	.out(out)
);
initial begin
s_a=0;s_b=0;s_c=0;
#200;
s_a=0;s_b=0;s_c=1;
#200;
s_a=0;s_b=1;s_c=0;
#200;
s_a=0;s_b=1;s_c=1;
#200;
s_a=1;s_b=0;s_c=0;
#200;
s_a=1;s_b=0;s_c=1;
#200;
s_a=1;s_b=1;s_c=0;
#200;
s_a=1;s_b=1;s_c=1;
#200;
$stop;
end
endmodule

(4)功能仿真,点击run_simulation,进行仿真,波形图如下所示:

(5)引脚分配,根据之前分析的情况,将SW2,SW1,SW0分配给a,b,c,将led7-led0分配个out[7:0],引脚分配管理图如下所示:

(6)生成比特流文件,点击Generate Bitstream,生成后点击Open Hardware Manager,打开硬件管理器,点击左上open target,打开开发板后点击Auto connect。再点击program device,即写入设备后即可在开发板上运行。如下所示

后面同理,当三个开关全部置1,即 ( 111 ) 2 = 8 (111)_2=8 (111)2=8,LED7灯亮,如下所示。

相关推荐
Slow菜鸟4 分钟前
Codex CLI 教程(五)| AI 驱动项目从零到一:面向 Java 全栈工程师打造个人 ECC(V2版)
java·开发语言·人工智能
一碗白开水一9 分钟前
【论文解读】VMamba: Visual State Space Model
人工智能·计算机视觉
网安情报局13 分钟前
如何选择合适的AI大模型:快快云安全AI大模型聚合平台全解析
人工智能·网络安全·ai大模型
yongyoudayee24 分钟前
业务语义模型:AI CRM从“能用”到“好用”的技术分水岭
大数据·人工智能
我的世界洛天依28 分钟前
官宣|VFrame 企划正式成立:九州合唱团登场,九州网络用 RVC 重构跨 IP 虚拟歌手音乐生态
人工智能·电脑
木雷坞28 分钟前
视觉算法环境 Docker 镜像拉取失败排查
运维·人工智能·docker·容器
ACCELERATOR_LLC30 分钟前
【DataWhale组队学习】DIY-LLM Task6 评估与基准测试
人工智能·深度学习·大模型·模型评估
珞光电子USRP SDR软件无线电平台32 分钟前
打破通用瓶颈:珞光电子发布 Luowave Driver V2 定制化驱动方案
fpga开发
我就是妖怪33 分钟前
Kimi K2.6 新手快速上手与实战指南
大数据·人工智能
Elcker33 分钟前
企业级RAG应用构建手册
人工智能·rag