fpga学习需要多久?
一、fpga学习需要多久?
自学的话可能大约半个月到一个月
FPGA是一个高度集成化的芯片,其学习过程既需要编程,又需要弄懂硬件电路和计算机架构。涉及到的知识和基础非常多,如数字电路基础、EDA原理、Verilog/VHDL编程语言、FPGA算法设计、FPGA仿真分析、PCB硬件设计等等。如果不合理安排学习内容,其学习过程将是非常漫长和枯燥的。
二、学习FPGA需要考研么?
不需要,有实际工程干就会学会,当然还需要多泡泡网,找些资料书籍,有实际经验了体会就更深,资料书籍也就会看得更透彻些。
三、如何学习FPGA?
声明:这篇文章来自互联网,不是我写的,这里只是觉得挺好的分享出来,如果博主要求删除,我会立马删除的!
原文来自:http://m.blog.csdn.net/k331922164/article/details/44626989
一、入门首先要掌握HDL(HDL=verilog+VHDL)。
第一句话是:还没学数电的先学数电。然后你可以选择verilog或者VHDL,有C语言基础的,建议选择VHDL。因为verilog太像C了,很容易混淆,最后你会发现,你花了大量时间去区分这两种语言,而不是在学习如何使用它。当然,你思维能转得过来,也可以选verilog,毕竟在国内verilog用得比较多。
接下来,首先找本实例抄代码。抄代码的意义在于熟悉语法规则和编译器(这里的编译器是硅编译器又叫综合器,常用的编译器有:Quartus、ISE、Vivado、Design Compiler 、Synopsys的VCS、iverilog、Lattice的Diamond、Microsemi/Actel的Libero、Synplify pro),然后再模仿着写,最后不看书也能写出来。编译完代码,就打开RTL图,看一下综合出来是什么样的电路。
HDL是硬件描述语言,突出硬件这一特点,所以要用数电的思维去思考HDL,而不是用C语言或者其它高级语言,如果不能理解这句话的,可以看《什么是硬件以及什么是软件》。在这一阶段,推荐的教材是《Verilog HDL数字设计与综合》或者是《用于逻辑综合的VHDL》。不看书也能写出个三段式状态机就可以进入下一阶段了。
此外,你手上必须准备Verilog或者VHDL的官方文档,《verilog_IEEE官方标准手册-2005_IEEE_P1364》、《IEEE Standard VHDL Language_2008》,以便遇到一些语法问题的时候能查一下。
为什么不推荐学习NIOS II和MicroBlaze等软核?
1、性价比不高,一般的软核性能大概跟Cortex M3或M4差不多,用FPGA那么贵的东西去做一个性能一般的CPU,在工程上是非常不划算的。不如另外加一块M3。
2、加上软核,可能会影响到其它的逻辑的功能。这是在资源并不十分充足的情况下,再加上软核,导致布局布线变得相当困难。
3、软核不开源,出现Bug的时候,不容易调试。
二、独立完成中小规模的数字电路设计。
现在,你可以设计一些数字电路了,像交通灯、电子琴、DDS等等,推荐的教材是《Verilog HDL应用程序设计实例精讲》。在这一阶段,你要做到的是:给你一个指标要求或者时序图,你能用HDL设计电路去实现它。这里你需要一块开发板,可以选Altera的cyclone IV系列,或者Xilinx的Spantan 6。还没掌握HDL之前千万不要买开发板,因为你买回来也没用。这里你没必要每次编译通过就下载代码,咱们用modelsim仿真(此外还有QuestaSim、NC verilog、Diamond的Active-HDL、VCS、Debussy/Verdi等仿真工具),如果仿真都不能通过那就不用下载了,肯定不行的。在这里先掌握简单的testbench就可以了。推荐的教材是《WRITING TESTBENCHES Functional Verification of HDL Models》。
三、掌握设计方法和设计原则。
你可能发现你综合出来的电路尽管没错,但有很多警告。这个时候,你得学会同步设计原则、优化电路,是速度优先还是面积优先,时钟树应该怎样设计,怎样同步两个异频时钟等等。推荐的教材是《FPGA权威指南》、《IP核芯志-数字逻辑设计思想》、《Altera FPGA/CPLD设计》第二版的基础篇和高级篇两本。学会加快编译速度(增量式编译、LogicLock),静态时序分析(timequest),嵌入式逻辑分析仪(signaltap)就算是通关了。如果有不懂的地方可以暂时跳过,因为这部分还需要足量的实践,才能有较深刻的理解。
四、学会提高开发效率。
因为Quartus和ISE的编辑器功能太弱,影响了开发效率。所以建议使用Sublime text编辑器中代码片段的功能,以减少重复性劳动。Modelsim也是常用的仿真工具,学会TCL/TK以编写适合自己的DO文件,使得仿真变得自动化,推荐的教材是《TCL/TK入门经典》。你可能会手动备份代码,但是专业人士都是用版本控制器的,所以,为了提高工作效率,必须掌握GIT。文件比较器Beyond Compare也是个比较常用的工具。此外,你也可以使用System Verilog来替代testbench,这样效率会更高一些。如果你是做IC验证的,就必须掌握System Verilog和验证方法学(UVM)。推荐的教材是《Writing Testbenches using SystemVerilog》、《The UVM Primer》、《System Verilog1800-2012语法手册》。
掌握了TCL/TK之后,可以学习虚拟Jtag(ISE也有类似的工具)制作属于自己的调试工具,此外,有时间的话,最好再学个python。脚本,意味着一劳永逸。
五、增强理论基础。
这个时候,你已经会使用FPGA了,但是还有很多事情做不了(比如,FIR滤波器、PID算法、OFDM等),因为理论没学好。我大概地分几个方向供大家参考,后面跟的是要掌握的理论课。
1、信号处理——信号与系统、数字信号处理、数字图像处理、现代数字信号处理、盲信号处理、自适应滤波器原理、雷达信号处理
2、接口应用——如:UART、SPI、IIC、USB、CAN、PCIE、Rapid IO、DDR、TCP/IP、SPI4.2(10G以太网接口)、SATA、光纤、DisplayPort
3、无线通信——信号与系统、数字信号处理、通信原理、移动通信基础、随机过程、信息论与编码
4、CPU设计——计算机组成原理、单片机、计算机体系结构、编译原理
5、仪器仪表——模拟电子技术、高频电子线路、电子测量技术、智能仪器原理及应用
6、控制系统——自动控制原理、现代控制理论、过程控制工程、模糊控制器理论与应用
7、压缩、编码、加密——数论、抽象代数、现代编码技术、信息论与编码、数据压缩导论、应用密码学、音频信息处理技术、数字视频编码技术原理
现在你发现,原来FPGA会涉及到那么多知识,你可以选一个感兴趣的方向,但是工作中很有可能用到其中几个方向的知识,所以理论还是学得越多越好。如果你要更上一层,数学和英语是不可避免的。
六、学会使用MATLAB仿真。
设计FPGA算法的时候,多多少少都会用到MATLAB,比如CRC的系数矩阵、数字滤波器系数、各种表格和文本处理等。此外,MATLAB还能用于调试HDL(用MATLAB的计算结果跟用HDL算出来的一步步对照,可以知道哪里出问题)。推荐的教材是《MATLAB宝典》和杜勇的《数字滤波器的MATLAB与FPGA实现》。
七、足量的实践。
这个时候你至少读过几遍芯片手册(官网有),然后可以针对自己的方向,做一定量的实践了(期间要保持良好的代码风格,增加元件例化语句的可读性,绘制流程图/时序图,撰写文档的习惯)。比如:通信类的可以做调制解调算法,仪表类的可以做总线分析仪等等。不过这些算法,在书上只是给了个公式、框图而已,跟实际的差距很大,你甚至会觉得书上的东西都很肤浅。那么,你可以在知网、百度文库、EETOP论坛、opencores、ChinaAET、Q群共享、博客上面找些相关资料(校外的朋友可以在淘宝买个知网账号)。其实,当你到了这个阶段,你已经达到了职业级水平,有空就多了解一些前沿技术,这将有助于你的职业规划。
在工作当中,或许你需要关注很多协议和行业标准,协议可以在EETOP上面找到,而标准(如:国家标准GB和GB/T,国际标准ISO)就推荐《标准网》和《标准分享网》。
八、图像处理。(这部分只写给想学图像处理的朋友,也是由浅入深的路线)
1、Photoshop。花一、两周的时间学习PS,对图像处理有个大概的了解,知道各种图片格式、直方图、色相、通道、滤镜、拼接等基本概念,并能使用它。这部分是0基础,目的让大家对图像处理有个感性的认识,而不是一上来就各种各样的公式推导。推荐《Photoshop CS6完全自学教程》。
2、基于MATLAB或OpenCV的图像处理。有C/C++基础的可以学习OpenCV,否则的话,建议学MATLAB。这个阶段下,只要学会简单的调用函数即可,暂时不用深究实现的细节。推荐《数字图像处理matlab版》、《学习OpenCV》。
3、图像处理的基础理论。这部分的理论是需要高数、复变、线性代数、信号与系统、数字信号处理等基础,基础不好的话,建议先补补基础再来。看不懂的理论也可以暂时先放下,或许学到后面就自然而然地开窍了。推荐《数字图像处理》。
4、基于FPGA的图像处理。把前面学到的理论运用到FPGA上面,如果这时你有前面第七个阶段的水平,你将轻松地独立完成图像算法设计(图像处理是离不开接口的,上面第五个阶段有讲)。推荐《基于FPGA的嵌入式图像处理系统设计》、《基于FPGA的数字图像处理原理及应用》。
5、进一步钻研数学。要在算法上更上一层,必然需要更多的数学,所以这里建议学习实分析、泛涵分析、小波分析等。
下面这两个阶段是给感兴趣的朋友介绍的。
九、数电的尽头是模电。
现在FPGA内部的事情是难不到你的,但是信号出了FPGA,你就没法控制了。这个时候必须学好模电。比如:电路分析、模拟电子技术、高频电子线路、PCB设计、EMC、SI、PI等等,能设计出一块带两片DDR3的FPGA开发板,就算通关了。具体的学习路线可以参考本博客的《如何学习硬件设计——理论篇》和《如何学习硬件设计——实践篇》。
十、学无止境。
能到这个境界,说明你已经很厉害了,但是还有很多东西要学的,因为FPGA常常要跟CPU交互,也就是说你得经常跟软件工程师交流,所以也得懂点软件方面的知识。比如ARM(Xilinx的ZYNQ和Altera的SOC会用到ARM的硬核,请参考本博客的《如何学习嵌入式软件》)、DSP、linux、安卓、上位机(QT、C#、JAVA)都可以学一下,反正学无止境的。
四、什么是学习和机器学习?
机器学习(Machine Learning)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,它是人工智能的核心,是使计算机具有智能的根本途径。
学习,是指通过阅读、听讲、思考、研究、实践等途径获得知识和技能的过程。学习分为狭义与广义两种:狭义:通过阅读、听讲、研究、观察、理解、探索、实验、实践等手段获得知识或技能的过程,是一种使个体可以得到持续变化(知识和技能,方法与过程,情感与价值的改善和升华)的行为方式。例如:通过学校教育获得知识的过程。广义:是人在生活过程中,通过获得经验而产生的行为或行为潜能的相对持久的方式。次广义学习指人类的学习。
五、FPGA 学习需要哪些东西?
语法太简单了。
最重要的是想法思路。
两个月理清思路,一个月代码,一个月调试,时间大概这个比例。
仿真也只能说明其逻辑正确性,具体到板子上还有一些差距。一个设计不仅要逻辑正确,更要综合考虑功耗,面积,速度,代码易读,文档不说多正规,核心部分好歹有点说明。
必须会用在线逻辑分析仪,调试时很有用。
至于nios,了解一下,做两个实验就行了,sopc看起来很美好,可以体会一下软硬件结合的感觉,实际应用不是很广。
六、机器学习算法和深度学习的区别?
答:机器学习算法和深度学习的区别:
1、应用场景
机器学习在指纹识别、特征物体检测等领域的应用基本达到了商业化的要求。
深度学习主要应用于文字识别、人脸技术、语义分析、智能监控等领域。目前在智能硬件、教育、医疗等行业也在快速布局。
2、所需数据量
机器学习能够适应各种数据量,特别是数据量较小的场景。如果数据量迅速增加,那么深度学习的效果将更加突出,这是因为深度学习算法需要大量数据才能完美理解。
3、执行时间
执行时间是指训练算法所需要的时间量。一般来说,深度学习算法需要大量时间进行训练。这是因为该算法包含有很多参数,因此训练它们需要比平时更长的时间。相对而言,机器学习算法的执行时间更少。
七、fpga在机器人中的应用?
1. FPGA在机器人中有广泛的应用。2. 首先,FPGA可以用于机器人的控制系统中,实现高速的数据处理和实时控制。其次,FPGA还可以用于机器人的视觉系统中,加速图像处理和识别。此外,FPGA还可以用于机器人的通信系统中,提高通信速度和可靠性。3. 随着机器人技术的不断发展,FPGA在机器人中的应用也将越来越广泛。未来,FPGA可能会被用于机器人的智能决策系统中,实现更加智能化的机器人控制。
八、学习fpga需要多长时间?
10-30天
FPGA范围比较广,从编程到制版到调试到生产都可以算到里面。既然你是想搞算法,我就帮你尽量跳过FPGA费时费力不出成绩的底层钻研阶段。
如果你只是想做算法而不是做应用,只需要了解FPGA的优势和实现原理,10-30天学习FPGA基础语法,这部分跟C比较相似应该能很快入门,这时候你差不多就了解FPGA跟CPU的区别和优势了,然后把重点放在算法研究上。根据算法复杂度研究时间不定。
九、我入门级的FPGA学习者,学FPGA还是Verilog?
我大学学的VHDL,现在用的verilog,感觉verilog更像一门语言,VHDL更像电路,但是究其根本,还是电路、数据流的设计;形象点来说
十、机器学习和c语言区别?
机器学习和 C 语言是两个不同领域的概念。机器学习是一种人工智能技术,主要用于分析和识别数据中的模式,以便对未知数据进行预测和决策。而 C 语言是一种编程语言,用于编写计算机程序。
以下是它们之间的一些主要区别:
1. 目的和应用领域:机器学习主要用于数据分析和预测,广泛应用于图像识别、自然语言处理、推荐系统等场景。而 C 语言主要用于编写底层的系统软件和硬件驱动程序,例如操作系统、嵌入式系统等。
2. 编程范式:机器学习通常使用高级编程语言,如 Python、R 和 Java 等,这些语言有丰富的库和框架,便于进行数据处理和建模。C 语言则是一种较低级的编程语言,更关注底层的性能和硬件控制。
3. 数据结构和算法:机器学习中涉及到大量的数据结构和算法,如数组、矩阵、树等,这些数据结构和算法在 C 语言中都可以实现。但是,C 语言实现这些数据结构和算法通常需要更多的编程工作量。
4. 执行效率:由于 C 语言是底层编程语言,其执行效率通常比高级编程语言更高。在一些对性能要求较高的场景中,使用 C 语言进行编程可以获得更好的性能。然而,在机器学习领域,很多计算任务可以利用现有的高效库和框架来完成,因此,使用 C 语言带来的性能提升可能并不显著。
综上所述,机器学习和 C 语言在目的、应用领域、编程范式和执行效率等方面存在较大差异。在实际应用中,可以根据具体需求和场景选择适当的编程语言和技术。对于机器人等领域,既需要掌握机器学习技术进行数据分析和决策,也需要使用 C 语言等底层编程语言来实现硬件控制和驱动。