目前,自然语言处理(NLP)正获得并保持着广泛的关注,这通常与自然语言处理对不断发展的高级人工智能(AI)的重要性有关。
这是有充分理由的。从历史上看,自然语言虽然可以被人类轻易理解,但却一直是计算机前所未有的导航挑战。但是,尽管程度尚待商debate,但毫无疑问,自然语言处理的进步正在改变这一事实,并且计算机越来越接近能够有效有效地理解和管理自然语言的能力。
这最终将导致计算机不仅能够理解编程语言形式的结构化数据,而且能够理解自然语言形式的数据(结构化和非结构化)。最具革命性的正是对AI的影响。
根据我过去讨论过的DIKW模型(在文献中通常用金字塔表示),NLP当前进步的意义(尤其是与非结构化数据有关的意义)变得显而易见,我对此进行了讨论(包括与知识有关的特定考虑因素- >模型的智慧峰)。该模型着重强调了数据和信息如何带来知识,以及知识(管理得当)如何带来组织智慧。
我喜欢该模型的地方在于,它还形象地表示了关键的关系和现象,一个具体的例子就是我所说的“知识失败”。这些都是无法有效地管理知识以创建组织智慧的过程(作为知识的一部分->智慧高峰)。
“知识生产过剩”,就是这种失败的一种,被定义为“知识的发展超出了使组织智慧最佳地最大化所需的知识的发展”。至少从历史上看是这样。一个必然的结果是,任何组织所面临的挑战不是总是了解更多,而是了解足够。
这是因为知识生产的弊端超出了必要的范围。我已经指出了知识生产过剩的弊端:最明显的是浪费了努力使事情变得有意义(我是David Shenk对“数据烟雾”的直观参考的拥护者)。但同时,也将精力浪费在了知识开发,共享,处理和管理上(因为基础知识的创造是努力获取数据和信息,并将信息进一步发展为知识。)
但是,随着NLP的最新发展,知识过度生产作为“知识失败”的本质正在发生变化。