希腊的一家公司 Maritime Cruises Mini-Submarines(MCMS)制造的潜水器能够载人到海洋的最深处。潜水器被移动到指定地点,并在不与主船相连的情况下部署。MCMS 公司现在希望利用他们的潜水器带领游客在爱奥尼亚海海底探险,寻找沉船残骸。

不过,在此之前,他们需要制定安全程序,以防与主船失去联系以及可能出现的机械故障(包括潜水器失去推进力),从而赢得监管机构的批准。特别是,他们希望你们开发一个模型,以预测潜水器在一段时间内的位置。与在陆地或海面上的典型搜救不同,有缺陷的潜水器有可能被放置在海底或水下中性浮力点。它的位置还可能受到海流、海中不同密度和/或海底地理环境的影响。你们的任务是:

(1)Locate - 建立一个(多个)模型,预测潜水器在一段时间内的位置。

o 这些预测有哪些不确定性?

o 在事故发生前,潜水器可定期向主机发送哪些信息以减少这些不确定性?为此,潜水器需要哪些设备?

(2)Prepare - 如果有的话,你建议公司在主机船上携带哪些额外的搜索设备,以便在必要时部署?您可以考虑不同类型的设备,但也必须考虑与这些设备的可用性、维护、准备和使用相关的成本。如果有必要,救援船可能需要携带哪些额外的设备来提供帮助?

(3)Search - 建立一个模型,利用定位模型中的信息来建议设备的初始部署点和搜索模式,以便最大限度地缩短找到失联潜水器的时间。根据时间和累积搜索结果,确定找到潜水器的概率。

(4)Extrapolate - 如何将你的模型扩展到其他旅游目的地,如加勒比海?如果多艘潜水器在同一附近移动,您的模型将如何变化?

准备一份不超过 25 页的报告,提供计划的详细信息。包括一份给希腊政府的两页备忘录,以帮助赢得批准。

您的 PDF 解决方案总页数不超过 25 页,其中应包括

1.一页摘要表。

2.目录。

3. 您的完整解决方案。

4. 两页备忘录。

5.参考文献列表。

6.人工智能使用报告(如果使用,则不计入 25 页限制。)

注意:对于提交的完整材料,没有具体的最低页数要求。你可以用最多 25 页的篇幅来完成所有的解答工作,以及你想包含的任何附加信息(例如:图纸、图表、计算、表格)。我们接受部分解决方案。我们允许谨慎使用人工智能,如 ChatGPT,但没有必要为这一问题创建解决方案。如果您选择使用生成式人工智能,则必须遵守 COMAP 人工智能使用政策。这将导致一份额外的人工智能使用报告,您必须将其添加到 PDF 解决方案文件的末尾,并且不计入解决方案的 25 页总页数限制中。

术语表

潜水器 潜水器是一种需要由较大的水上船只或平台运输和支持的水下航行器。这使潜水器有别于潜水艇,后者可以自给自足,并能在海上长时间独立作业。

当物体的平均密度等于浸入液体的密度时,就会产生中性浮力,从而使浮力与重力平衡,否则重力会导致物体下沉(如果物体的密度大于浸入液体的密度)或上浮(如果物体的密度小于重力)。具有中性浮力的物体既不会下沉,也不会上升。

在 COMAP 竞赛中使用大型语言模型和生成式人工智能工具

本政策的出台是由于大型语言模型(LLM)和生成式人工智能辅助技术的兴起。该政策旨在为参赛队、顾问和评委提供更高的透明度和指导。该政策适用于学生作品的各个方面,从模型的研究和开发(包括代码创建)到书面报告。由于这些新兴技术发展迅速,COMAP 将根据实际情况完善本政策。

团队必须公开、诚实地说明他们对人工智能工具的所有使用情况。团队及其提交的报告越透明,其工作就越有可能得到他人的充分信任、赞赏和正确使用。这些信息的披露有助于了解智力工作的发展,也有助于对贡献给予适当的肯定。如果不对人工智能工具的作用进行公开、明确的引用和参考,有问题的段落和作品更有可能被认定为剽窃并取消资格。

解决这些问题并不需要使用人工智能工具,但允许负责任地使用这些工具。COMAP 认识到 LLM 和生成式人工智能作为生产力工具的价值,它们可以帮助团队准备提交材料;例如,为结构生成初步想法,或者在总结、转述、语言润色等方面。在模型开发的许多任务中,人类的创造力和团队合作是必不可少的,而依赖人工智能工具则会带来风险。因此,我们建议在使用这些技术进行模型选择和构建、协助创建代码、解释数据和模型结果以及得出科学结论等任务时要谨慎。

必须注意的是,LLM 和生成式人工智能有其局限性,无法取代人类的创造力和批判性思维。COMAP 建议各团队在选择使用 LLMs 时要注意这些风险:

1.Objectivity: 以前发表的含有种族主义、性别歧视或其他偏见的内容可能会出现在 LLM 生成的文本中,一些重要的观点可能无法体现。

2.准确性: LLM 可能会产生 "幻觉",即生成错误的内容,尤其是在其领域之外使用或处理复杂或模糊的主题时。它们可能会生成语言上可信但科学上不可信的内容,可能会弄错事实,还可能生成不存在的引文。有些 LLM 只针对特定日期前发布的内容进行培训,因此呈现的内容并不完整。

3.语境理解: LLM 无法将人类的理解力应用到文本的上下文中,尤其是在处理成语表达、讽刺、幽默或隐喻性语言时。这会导致生成的内容出现错误或曲解。

4. 训练数据: LLM 需要大量高质量的训练数据才能达到最佳性能。但是,在某些领域或语言中,此类数据可能并不容易获得,从而限制了任何输出结果的实用性。

02-05 05:39