问题描述
我在 spark 3.0.0 中得到这个错误:
错误1:
org.apache.spark.sql.AnalysisException:未定义的函数:'ano'。 这个函数既不是注册的临时函数,也不是一个 在数据库 'sspkeyspace' 中注册的永久函数。 1号线 位置 58
我在 Cassandra DB 3.11.9 中创建了一个 UDF 来提取日期列的年份:
CREATE OR REPLACE FUNCTION ano (input DATE)
RETURNS NULL ON NULL INPUT RETURNS TEXT
LANGUAGE java AS 'return input.toString().substring(0,4);';
我在 cqlsh 提示符下运行查询:
select ano(data_compra) as ano from Compras ;
而且效果很好。但是在spark中,进入应用程序,显示ERRO1。
cql 提示中的结果查询:
ano
-----
2014
2009
2013
2012
2014
2012
2011
2019
谢谢,
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)