您应该始终仔细检查从 ChatGPT 获得的任何数据并询问来源。通常,该工具很难为其数据提供明确的来源,这增加了挫败感。没有来源=无法使用的数据。 ChatGPT 对“您从哪里获得城市人口数据信息?”问题的回答的屏幕截图 最终用户设计 Midjourney 和 Dall-E 都是流行的人工智能工具,用于从头开始创建图像。 尽管两者在质量上有很大不同,但输出结果比你让公关专业人士在 Illustrator 中扔东西要好一千倍。
公关活动的设计可能是最昂贵和耗时的投资之一
每一步都有专业知识,计师还是撰写详细的创意简介。 越过任何障碍,你就犯了一个代价高昂的错误。走捷径可能很诱人,但人工智能永远不会像经验丰富的设计师那样画画。 例如,人工智能以与双手斗争而闻名。在这里,我使用了“搓手的姿势——ar 16:9”。 使用 Midjourney 创建的四张图像网格显示高度逼真的双手紧握在一起。
有些手看起来不自然有多余的手指或形
状不自然。 不仅从定性的角度来看,人工智能还反映了其训练信 尼日利亚手机号码几位数 息中的负面偏见。这意味着它可以在其艺术中展现种族主义、阶级主义、仇视同性恋和性别歧视的思想。人类可能有的任何偏见,人工智能也有,并且高度关注。 附上从未发生过的事情的图片也有一个道德问题。 2023 年 5 月,国际特赦组织使用人工智能生成的图像在社交媒体上宣传他们的报道,只能说进展并不顺利。
一般来说类仍然不太擅长区分人
工智能图像和真实图像,因此在使用人工智能时必须小心谨慎 提高企业透明度的 7 种方法 保持透明,而不是试图作弊。 何时不在推介和观看中使用人工智能 在公关的所有领域中,在与记者沟通时应该最保守地使用人工智能。从本质上讲,我们的工作围绕与客户和同事建立牢固的关系,同时也与我们希望报道我们故事的记者建立牢固的关系。 通过使用人工智能在这方面走捷径,你可能会损害你从职业生涯开始以来精心培育的关系。
专家点评 人工智能在公关中使
用的最常见和不道德的方式之一是创建虚假的专家评论或完全 电话数据 虚假的专家本身。 专家评论,顾名思义,必须来自专家,而不是人工智能工具。寻找此类内容的记者希望与比他们拥有更多知识的人合作,以强化或指导他们在特定主题上的报道。 使用没有专家参与创建的虚假评论不仅会严重损害您与记者和客户的关系,还会传播错误信息。