AI时代来临,但是对AI的了解往往都是积极和正面的,所谓的替代人工也好,提高生产力也好,这无疑是某些媒体故意而为之。但是对于一个未知事物,我们应该身怀敬畏,应该以辩证的方式来看待,什么事情应该需要考虑好的一面,也要考虑坏的一面!
我们不说能替代多少人工的问题,因为永远都会有人类生存的空间。比如,谁说人工智能就不会得老年痴呆?数据庞大到一定程度,学习框架的毛病也会被无限放大,智能的发展谁说就一定会往好的方向进化。有人说可以监督进化,在一个学习错误可能性被无限放大的情况下,其错误的可能性是随机的,如何监督呢?
其实这个问题,我们从5G开始就能发现这样的毛病,但是很多学者认为这个可以用提高效率来解决:
问题:对于5G基站来讲,是存在两种随机状态,其一是对于所发送的数据是随机的!其二基站对于人来讲也是随机的。随着频率越来越高,需要的基站也越密集,且通信专家针对数据的随机性考虑的很多也很完善,但是针对人的随机却寥寥无几。在3G、4G时代,人的随机为什么不会被放大,是因为,人在串行于城市之间时,基站尚未这么密集,设备需要一定的时间才能从一个基站切换到另一个基站。但是5G开始因为基站的密集度越来越高,随便开个车、走点路都有可能需要切换基站,那么上一时刻通过A基站请求的数据,也许还没有传输完毕,就需要B基站来续传,先不说传输机制在切换时有多快,很明显A基站总会存在一些数据包需要释放,或正在发送中,必然处于等待状态。那么这个问题,随着终端设备越多,设备移动的速度越快,基站越密集随机性就越强。这就像在二维平面上的随机点,明明需要(x,y)来标记随机点的坐标,其中x和y就都是随机数,而我们只考虑x或y,却不去联合考虑两个随机数,所以
5G一定存在一个理论上的极限,可以预见未来所谓的6G、7G等同样存在这个理论极限!
频率越高,基站越密集网络效率就一定会越高吗?
有没有考虑过运算时耗、切换时耗、信号重叠与整个网络效率的关系?有没有考虑过理论极限的问题?有没有人推理和证明过这个熵的理论值?等等,我们的政府和研究机构被一个伪科学或不完善的科学绑架!!天天嚷嚷着提高频率提高传输速率,势必增加基站密集度,能耗也势必增加,更换更稳定基站相对较少的物理信道才是应该去考虑的问题。
AI难道就不会有这样的问题吗? AI的识别和训练就没有理论极限吗?谁推理了,谁证明了?更细思极恐的一个问题,有谁关心过呢?
如果不法分子利用AI根据需求写一个木马?勒索病毒?你的杀毒软件能杀掉吗?你的防火墙能防得住吗?现在比较火的ChatGPT,会给你看进行安全审查吗?就算通过安全审查,就不会有人让AI自己写病毒程序?如果AI程序已经更新到了显卡驱动、手机底层,还有所谓的信息安全吗?这么重要的研究课题有人做吗?
很多专家尤其是所谓的自媒体,听风就是雨,拿着一些片面的理解就开始放大,博眼球,拿课题,争经费!!!在这里我不是有意宣传大家去利用AI使坏,而是作为一个研究编码理论多年的工程师,我觉得我有这个必要给出提醒!
别到时候,说每人知道这个事,没人提醒过,先市场,让技术跑一会儿,到时候再治理。在AI面前,你们觉得人类的法律和行政手段会有用么?一个阻碍技术进步和社会发展的漏洞,为什么不提前预防呢?