计算机科学的基本理论、工程技术和前沿话题。
专业分区(发帖请进入对应分区)
CPU~~~[s:266][s:229] Multisim 11.0文件: 8位CPU龙少架构-_,=~~~.rar 5.92M 419次 打开文件就能仿真了,按照指令集在虚拟内存里的ROM区拨上指令,手动或自动的给CPU输入脉冲就会执行指令,这个文件比较大,如果你的电脑性能差,打开会久一些,仿真也会很卡;有点累~就不打太多字了,有不懂的地方回帖问我就行了[s:229] 下面是这个CPU的设计图: [attachme 运算、移位、标志位操作时序1.jpg 220k 调用、返回、中断调用时序.jpg 201k 执行定义.jpg 214k 指令集1.jpg 222k 内存和寄存器传送时序.jpg 188k 时序发生器原理.jpg 197k 执行时序.jpg 190k 寄存器之间传送时序.jpg 198k 取指和立即数传送时序.jpg 197k 指令集2.jpg 287k 指令控制电路原理.jpg 229k 入栈和出栈时序.jpg 203k
其实我本想弄一个16位的,微指令还有虚拟化的,但是太复杂了,建议用c语言写一个。。。 谁要思路的?
很简单的东西 用于批量生产代码 Buttons LeftThumbX LeftThumbY LeftTrigger RightThumbX RightThumbY RightTrigger <TextBlock Text="{0} = " /> <TextBlock Text="{{Binding {0}}}"/> <StackPanel Grid.Column="0"> <TextBlock Text="Buttons =
正确方法是使用 Visual Stuidio的 T4 模板 方便 功能强大的多。。。。。。
刚画完电路先把电路贴出来[s::victory:] 这个CPU由30多片TTL门电路组成. 非常简单而强大的电路...连我自己都被这个设计震惊...[s::funk:][s::@] 设计是按照硬件条件来设计的, 计划装在两片10CM*10CM的PCB上面,这个规格的PCB打样价格低. 跳转指令跳转消耗2个时钟,不跳转消耗1个时钟,其他指令1个时钟. RAM和ROM地址为24位(地址寄存器24位,程序计数器24位),最大可以寻址16MB的RAM和16M的ROM. IO方式为内存映射IO 龙少精简嗨爆版8位单周期CPU译码逻辑.png 68.0k 龙少精简嗨爆版8位单周期CPU运算逻辑.png 115k 龙少精简嗨爆版8位单周期CPU.rar 1.45M 486次 龙少精简嗨爆版8位单周期CPU结构.png 39.0k 龙少精简嗨爆版8位单周期CPU地址逻辑.png 72.0k
楼主真么联系呀 有qq或者微信吗 我的QQ1310444699
原始的帖子在这里,电路原理图也有 https://bbs.kechuang.org/t/81422 现在重新做了几块板子,挺漂亮的。 ============================================== 计算机系统的配置: 小名:qCPU(CuteCPU) CPU:4位 ROM:4KB RAM:4KB 运行频率:74芯片极限 IO:2组4位的IO口 4个按键 其他外设就是5个LED发光二极管,一个蜂鸣器,一个4位数码管, 一个5X7点阵LED, 4.png 1.18M LED板_焊接图.jpg 228k 5.png 1.26M LED点阵显示0-9(2).a 11.6k 30次 LED点阵等原理图.pdf 233k 41次 pp05.png 1.38M 1.png 1.18M CuteCPU计算机原理图-2.pdf 587k 99次 3.png 1.13M xLED流水灯测试代码.a 167b 36次 pp11.jpg 47.3k CuteCPU指令集解释.pdf 89.4k 65次 2.png 1.47M 主板_焊接图.jpg 1.74M 6.png 1.19M LED点阵马赛克.a 775b 30次 CuteCPU编译器.rar 239k 55次
USB下载器也是自己做的吗,好像没有原理图
2006版,来自网络,包含以下几卷: 第一卷:基础架构 第二卷:指令集参考(A-M/N-Z) 第三卷:系统编程指南(Part1/2) 附卷:优化参考 注意2006版已经包括了32位和64位架构,只不过64位架构被称为IA-32e。 Intel开发手册2006.rar 10.1M 36次 2001版,来自网络,包含以下几卷: 第一卷:基础架构 第二卷:指令集参考 第三卷:系统编程指南 注意2001版只更新到了奔腾4,也就是最高只有32位架构,并且扩展指令集只到SSE2.0。 Intel开发手册2001.zip 7.79M 3次 1999版,来自网络,包含 intel开发手册1999.zip 7.64M 2次 IA-32卷3:系统编程指南.pdf 1.55M 5次 INTEL开发手册卷3(中文版).pdf 1.99M 7次
从学习的角度来说看老版本比较好,推荐2006年的版本,已经包含了64位、多核心、处理器虚拟化相关的内容,又不会过于繁琐。 如果用于研究/工作,还是需要看最新的版本,包含了最新的指令集,并且很多特性在不同的处理器上差异较大。比如硬件虚拟化VT-X,最早在2006年的Pentium D 900系列(代号Presler)上提供,但是其中的内存虚拟化EPT在2009年的第一代Core i7 (代号Nehalem)才支持,2013年的第四代Core i(代号Haswell)又增加了shadow vmcs。
Bitcoin: A Peer-to-Peer Electronic Cash System 中本聪(Satoshi Nakamoto) 原文: www.bitcoin.org ,翻译: www.8btc.com [摘要]:本文提出了一种完全通过点对点技术实现的电子现金系统,它使得在线支付能够直接由一方发起并支付给另外一方,中间不需要通过任何的金融机构。虽然数字签名(Digital signatures)部分解决了这个问题,但是如果仍然需要第三方的支持 1.jpg 72.6k 2.jpg 23.8k 3.jpg 26.8k 4.jpg 87.0k 5.jpg 52.3k 6.jpg 14.4k 7.jpg 38.0k 8.png 26.0k 9.png 35.4k 10.png 27.5k bitcoin.pdf 180k
Bitcoin: A Peer-to-Peer Electronic Cash System 中本聪(Satoshi Nakamoto) 原文: www.bitcoin.org ,翻译: www.8btc.com [摘要]:本文提出了一种完全通过点对点技术实现的电子现金系统,它使得在线支付能够直接由一方发起并支付给另外一方,中间不需要通过任何的金融机构。虽然数字签名(Digital signatures)部分解决了这个问题,但是如果仍然需要第三方的支持
[机器学习笔记#4] Neural Style 算法分析及caffe实验 在之前的帖子中,楼主简要介绍了 Neural Style 算法的原理和实现思路,该方法2015年由三位德国科学家以一份tech report的形式提出,今年他们发表了一篇[CVPR 论文](http://www.cv-foundation.org/openaccess/content_cvpr_2016/papers/Gatys_Imag
我在这里贴一下我做的style transfer,技巧和楼主是一样的。当时是发在个人博客上的: https://ctmakro.github.io/site/on_learning/image/style_transfer.html (附件:279341) 具体的过程和解释也写在那边。 注意到图中噪声很大,这是因为VGG用了MaxPool,导致Adversarial Sample的机会出奇地多。这种噪声是有解决方案的,参见 <https://distill.pub/2017/featur
1导言 深度学习正在努力让神经网络变得越来越深 [13],因为更深的模型意味着更复杂的处理带来的更好的分类性能,诸如 [4] 等研究已经把神经网络成功地训练到了一百多层。但是我们却把目光放在让模型更宽上,因为我们认为神经网络在这一方向上还有很多的性能供我们挖掘,同时更宽的模型能够更好地并行化以利用计算能力提升带来的红利。 前人已经在这个方面做了许多的重要的工作,Ensemble-based classifiers[12] 描述的是将图像进行不同处理后并输入不同神经网络,最终输出各神经网络
楼主的代码是raw tensorflow,实在是太难阅读了…… 如果我没有理解错的话,楼主把主卷积神经网络的每一个点附近的卷积操作(从patch到pixel),替换成了一个更小的卷积神经网络。造成了计算量的爆炸,使得此架构不实用。 楼主没有证明(也没有说明),使用这个架构的necessity 或者 justification(一定要分解成单步卷积吗?因为大卷积套小卷积,等效于两个大卷积) 尤其是,即便加上了步进(每隔n个像素应用一次卷积操作),也只相当于dilated convolutio
我从16年10月开始接触机器学习。以独立研究工作者的身份,实验从早做到晚。17年10月份又参加了个RL比赛(具体搜Learning to Run),忙得昏天黑地。 AI是一个发展飞快的领域。 做前沿研究,辛苦且不论,投入产出比低得吓人。 图像特征提取+识别,目前的主流方法是CNN,CNN像积木一样,可以以无穷多的方式组合成一个完整的神经网络,但是只有某些特定的组合方式,在经过训练后能达到较好的性能(比如较高的识别准确度等等)。 连续5年,学界每年都会用新的神经网
我从16年10月开始接触机器学习。以独立研究工作者的身份,实验从早做到晚。17年10月份又参加了个RL比赛(具体搜Learning to Run),忙得昏天黑地。 AI是一个发展飞快的领域。 (附件:279337) 做前沿研究,辛苦且不论,投入产出比低得吓人。 图像特征提取+识别,目前的主流方法是CNN,CNN像积木一样,可以以无穷多的方式组合成一个完整的神经网络,但是只有某些特定的组合方式,在经过训练后能达到较好的性能(比如较高的识别准确度等等)。 连续5年,学界每年都会用新的神经网
[Excel.2007.VBA参考大全].(美)格林.扫描版.7z.001 60.0M 7次 [Excel.2007.VBA参考大全].(美)格林.扫描版.7z.002 60.0M 9次 [Excel.2007.VBA参考大全].(美)格林.扫描版.7z.003 60.0M 10次 [Excel.2007.VBA参考大全].(美)格林.扫描版.7z.004 38.9M 8次
缺页,发现缺29页,后面就没看了。
求教各位大神了!谢谢哦.
不会蓝屏,也是段错误,因为应用也在虚拟内存上运行。表现形式就是xx已停止工作。
分类 ( Classification) 以及 分类器 ( Classifier)是机器学习和传统统计学里边一个很重要的概念,可能是我们日常生活中接触到的最多的一种机器学习应用。垃圾邮件过滤,人脸识别,手写字符识别,都是利用了分类的知识。 在这些任务中,我们往往希望给定一个具体输入,通过分类器的处理,能自动将其划到我们预先定义的某个类别中去。比如垃圾邮件过滤,给定邮件内容作为输入,输出 “是垃圾”,“不是垃圾” 两种状态之一;人脸识别,给定照片的特定区域,输出“是我”,“是路人甲”,
楼主,请问在定义梯度下降函数时,用的sigmoid=1/(1+np.dot(x_batch,np.transpose(w))) 为什么不用带exp啊,
今天根据 https://jingyan.baidu.com/article/afd8f4de58959134e386e969.html 和 https://jingyan.baidu.com/article/f71d60379e16021ab641d1ab.html 的百度经验修改启动项后就这样子了,不知道应该怎么改回去ubuntu4.10.3版本的
检查/etc/fstab
最近有一个项目要用到摄像头实时去背景(不用特殊绿背景)。 目前比较靠谱的技术是利用激光散斑编码,最典型的就是微软的Kinect,还有Intel的 RealSense 3D。 但是出去转了一圈,得到的信息很悲观。在有图比上看到,就算Kinect、Kinect 2 以及 intel realsense zr300 这样牛X的东西,出来的效果比惨不忍睹还要惨。 最近双摄手机比较火,既然双摄能模拟背景虚化,是不是也可以去掉背景呢? 本来想利用双摄像头,通过opencv进行双摄测距,然后对point cl
我有类似的方案,但还不成熟,需要特殊硬件支持。
VC制作的软件,从VC2005之后的都需安装运行库才可以运行,从xp到win10一直都没改变,而且这货,上下版本还不能互相兼容orz这就是为啥在添加和删除程序里能看到各版本VC运行库的原因。 在某些情况下,比如绿色软件或者在pe下运行的软件,运行库可能带不全或者不好安装,于是制作一个不需要VC运行库的程序就是很有必要的了 首先创建一个VC2015的Win32 Project,选择默认选项创建一个窗体程序 打开菜单Project-> xxx Property(xxx是项目名)或者直接按Alt+F7
新的发现,如果按照上面的还是出错的话 1. Configuration Properties -> C/C++ -> Optimization -> Whole Program Optimization = false 2. Configuration Properties -> C/C++ -> Optimization -> Enable Intrinsic Functions = false 3. #include <Windows.h> 要写成 #define WIN32_LEAN_A
心血来潮,决定把上次搞得SVPWM算法的推导过程整理一下,然后.....今天整整一天都在干这个.............. 功夫不负有心人,终于搞出来个不像科普文章也不像论文的怪文........... 各位大神轻点拍砖啊........... 以下由bg8npk搬运 搞SVPWM的目的呢 ,其实就是想让电机平稳地旋转,这次主要说说三相同步电动机(PMSM)的SVPWM控制吧(三相电机结构还请各位自行google)。 PMSM定子的三个绕组嘛,其实可以看做三个电磁
不甚了解,要多看几次
在我的上一篇文章末尾( http://bbs.kechuang.org/read/79505 ),我简要论述了“硬件安全模块”对互联网信息安全的重要性。如今,无数的银行业、支付业者使用HSM保证它们的业务不受黑客的破坏。 我提出的问题是:硬件安全模块能自己做吗? 在回答这个问题之前,不妨看看以下两篇文章。 http://netsecurity.51cto.com/art/201005/200658.htm [url]http://www.saf QQ截图20160406155305.jpg 107k
@ry7740kptv 目前所有能做到防拆安全的设备,内部必然带小电池的,通常是一个纽扣电池。微安级别放电,能工作2年左右。 目前的安全CPU,通常也有多路供电的设计,当主电源(比如主电池或者USB插入)存在时,优先使用主电源,只有主电源不存在时才会使用备份电源。这样备份电源实际使用寿命可以大大增加。 下面是一个"比较便宜"的HSM: [url]https://www.thalesesecurity.com/products/general-purpose-hsms/nshield-edge[
悲催的在春节期间买了个电脑,只有linux,现在电脑城关门没D版win安装盘卖。想看看电影,不知道在哪里装linux版播放器。有大神给推荐个好安装好用的吗?
mplay,你值得拥有‘
书是有了 开发版 有了 教学视频有了 (天祥的) 还是看不懂 ; 直接就讲函数一类 ; 压根就什么都明白 ;程序倒出来了; 都是 照着视频模仿; 我快发疯了[s::'(] 跪求一位师傅指导 可以的话 加QQ聊天 只要有点时间给我指点一下 [s::'(](跪求了) (本人电子元件懂一点 )QQ2232807037 [s::Q]
买块51的板子,学习里面的自带教程就好了
一直有打造一台计算机系统的想法,恰巧今年有机会,就开始了设计。我的目标是能够运行,用74门搭建,而不仅仅是仿真或在FPGA上运行(主要是我不会hh)。构思了一段时间,把整台机器的架构稍微梳理了一下。画了一个思维导图,大家凑合看。涉及到运算,一定会有位宽这一概念。这台计算机设计出来的目标是运行,不仅仅是软件上的设计,于是74门的数量就是个大问题。大家知道,计算机的位宽增加,晶体管的数量必然成指数型增加,划不来。现在拿性能换成本,抛弃性能,做成一位的,74门数量可以做到几十片甚至十几片。 #{r=2 image.png 529k image.png 283k image.png 149k image.png 512k image.png 410k image.png 73.6k image.png 554k
真不错,赶紧问虎哥申请经费吧
从Windows XP SP2开始,微软提供了一套API叫做WinUSB,从winusb.dll导入。 参考资料 https://msdn.microsoft.com/zh-cn/library/windows/hardware/ff540046 (v=vs.85).aspx http://usb.baiheee.com/usb_article/usb_driver_app/winusb_intro.html 限制是不能直接发送URB,必须使用win
WinUSB的API并不太友好(个人感觉),幸好libusbk已经开始支持WinUSB了,可以用libusb的API直接操作WinUSB的设备~
exe基地址乱跑,是因为在比较新的Visual Studio中,link添加了/dynamicbase参数,这个参数是用来声明程序在Windows Vista以后的系统中兼容地址空间布局随机化(ASLR)安全特性的。 另外还有一个参数是/fixed,这个参数是删除.reloc节用的。由于exe载入较早,只有启用/dynamicbase时,或者在非常古老的win32s平台运行时,才需要exe有.reloc节。dll则必须有.reloc节,否则地址空间重叠的dll只能载入一个,因此dll一般来说不 dynamicbase.PNG 66.0k
如果需要找exe的基地址,通过(w)WinMain函数的参数,或者通过GetModuleHandle(NULL)。 如果需要当前dll的基地址,通过DllMain函数的参数。 除此以外,还有一种方法,可以通过链接__ImageBase符号来获得基地址。 EXTERN_C IMAGE_DOS_HEADER __ImageBase; #define HINST_THISCOMPONENT ((HINSTANCE)&__ImageBase)
昨天晚上看电影一不小心看到快4点,又一不小心打开科创,发现改版了,发现自己发帖要考试,还好过了,其中有一题,104667是第几个质数(不一定是这个数,记不太清了),我是用python编程求的 def getPrime(n): for i in range(2,n): if n%i == 0: return False return True def primePosition(x): count
……只会c的弱鸡,还停留在函数调用,,,拿循环编出来的。比不过大佬们……
如题 在ros wiki找到安装教程,然后按照教程安装。 当进行到输入:sudo apt-get install ros-indigo-desktop-full 出现了如图所示的问题。 谷歌一下没有发现任何有用的信息 这里有用过ros indigo的也遇到这个问题的人吗?
引用 macaseadam: 其实老软件linux也能装不过要看软件的依赖。。。。比如你用个4.11内核的系统,再想装个3.x或者2.x时代的软件基本上是没戏了~ BTW:为啥都用Ubuntu这货哪里好了。。。。 毕竟后面有正经大公司支持,就和当年的收费redhat一样
上面的是普通的神经网络,每轮训练通常只需要进行一次,但在遇到类似于 Dueling DQN 这种结构的神经网络时应该如何训练呢? 需要在1和2分别推一次?其中一条只需要推一半就好?或者是有什么神奇的函数可以把它们重新聚合起来之后一次推回去?
正向:计算->计算->两个分叉分别计算->合并(相加或者concat)->计算 反向:梯度传递->两个分叉分别传递->合并(相加)->梯度传递->梯度传递 总结:没有什么特殊的,如果某一输出被用在两个地方,由这两个地方传回来的梯度相加就可以了。
之所以说是常规加速版,是因为DX11还有GPGPU计算加速功能Compute Shader,也就是所谓的DirectCompute,但是这里我们只用到了常规的图形流水线加速功能。 最低配置被设置为D3D_FEATURE_LEVEL_9_3和"ps_4_0_level_9_3"。如果将循环次数改多一点,由于"ps_4_0_level_9_3"不包含条件循环指令,循环操作实际上被展开了,指令数量很容易超过限制,这个时候就需要把最低配置改为D3D_FEATURE_LEVEL_10_0和"ps_4_0
在Windows API中只开放了两个允许区分大小写的API: CreateFile,使用FILE_FLAG_POSIX_SEMANTICS开关; FindFirstFileEx,使用FIND_FIRST_EX_CASE_SENSITIVE开关。 不过我们可以通过SetFileInformationByHandle来实现文件/文件夹的改名和删除。 此外,在Native API中InitializeObjectAttributes时不指定OBJ_CASE_INSENSITIVE开关,也可以实现区 case_sensitive.PNG 40.8k
在Windows API中只开放了两个允许区分大小写的API: CreateFile,使用FILE_FLAG_POSIX_SEMANTICS开关; FindFirstFileEx,使用FIND_FIRST_EX_CASE_SENSITIVE开关。 不过我们可以通过SetFileInformationByHandle来实现文件/文件夹的改名和删除。 此外,在Native API中InitializeObjectAttributes时不指定OBJ_CASE_INSENSITIVE开关,也可以实现区
本来打算用Shader Model 2.0,但是经过测试,Shader Model 2.0的功能太原始,连for循环都无法支持,最后只能改用Shader Model 3.0。由于使用了HLSL编译Shader Model 3.0,所以需要VS2002-2010和DirectX 9.0c SDK 2004-2010, 不能使用VC6和DirectX 9.0b SDK。 DX是DirectX的缩写,SM是Shader Model的缩写。 如果改写成DirectX 10/11版本的话,最低应该需要
写了个cuda版的 #include <stdio.h> #include <stdlib.h> #include <cuda_runtime.h> #define grid 10 #define block 1024 bool InitCUDA() { int count; cudaGetDeviceCount(&count); if (count == 0) { fprintf(stderr, "There is no device.\n");
每半年发布一个短期支持版本(SAC,半年通道),支持18个月。 每2-3年发布一个长期支持版本(LTSC,长期支持通道),支持10年。下一个长期支持版本预计2019年发布。 以前的CB、CBB、LTSB计划被替代。 另外,Windows Server也将不再有2016R2,而是一直发布SAC版本1709-1803-1809等。直到Win10下一个LTSC版本发布发布,再同步发布对应的LTSC版本。 参考资料: [url]https://blogs.technet.microsoft.co
《2017/09/13更新》 当前现存Windows 10版本的生命周期政策 现存的桌面SAC版本: Windows 10 (Version 1507) Build 10240 支持到 2017/05/09 Windows 10 Version 1511 Build 10586 支持到 2017/10/10 Windows 10 Version 1607 Build 14393 支持到 暂定2018/03 (Clover Trail 支持到 2023/01) Windows 10 Versio
涉及C语言、编译原理、x86汇编,Win32和PE编程等知识。。。 书中介绍的SCC编译器原理类似TCC编译器。。。 自己动手写编译器链接器[ad].pdf 51.9M 1784次
谢谢!!!!!!!!!!!!!
Intelligence given, machines smarter.
电子计算机原理,电子计算机硬件,电子计算机电路
机器学习、建模仿真、自动控制、虚拟现实
Windows,DotNET和C#
UNIX(Linux/BSD) ,兼自由开源软件。
nkc production Server  https://github.com/kccd/nkc
科创研究院 (c)2005-2016
蜀ICP备11004945号-2 川公网安备51010802000058号