训练一个会训练AI的AI,在技术上和伦理上是否可行?

  之前在油管上看到一个视频,说我们现在的技术足以训练具有某个特定能力的AI,比如棋盘游戏AI,自动驾驶AI,但是这些都不是通用人工智能(AGI),比如你拿一个棋盘游戏AI去做自动驾驶肯定是不行的。

  不过AI本质上就是一系列被训练过的数据模型而已,那么我们能不能通过训练一个会根据给予的任务来建立数据模型并训练这个数据模型的数据模型,来实现AGI呢?这种AGI在道德伦理上是否可被生产出来代替人类作业?

  这个AI还是要人呀,再训练一个会训练(会训练AI的AI)的AI

  一直这样循环下云,这不就是循环自证吗?

  根据系统论,且不管你有多少层循环,你最终还是需要靠人来写最后的支持,因为你的AI无法一直死循环下去。

  类似无人机驾驶汽车,如果坏了怎么办?我再造一个无人驾驶的维修车。

  如果无人驾驶的维修车坏了怎么办?我再造一个用于维修无人驾驶的维修车的车

  这样不管你循环了多少次,最后还是无法跳出循环。

  但人类就不一样,人类的智能,可以不使用机器来工作,可以完全手动,可以跳出循环。

  现在的人工智能是全面依赖于人类社会的,没办法自我闭环,如果自我闭环了,那么人类相当于造物主了,大自然的生物如蚂蚁,蜜蜂就是自我闭环的,不依赖于人类社会。

  现在除了生物能实现闭环,别的人工智能都不行,至少依赖于人类社会的发电,而建一个发电厂就是依赖于人类社会本身,没有办法脱离整个人类社会而存在,这也是为什么说AI产生不了意识的原因,因为连闭环生存都无法完成,高度依赖于人类社会。反过来说明了现在的AI智能程度还很低,在大自然中生存概率是没有的,一旦没有了电就熄火了,芯片也是人类社会提供的,没有办法自我迭代,完全闭环生存。