博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Mysql执行保错:Row 17 was cut by GROUP_CONCAT()
阅读量:6800 次
发布时间:2019-06-26

本文共 1087 字,大约阅读时间需要 3 分钟。

转载:

在做行转列的数据处理时需呀用到group_concat函数,要求:数据是每15分钟作为一个标记,按照时间输出全天的数据,部分sql语句如下:

drop PROCEDURE if exists test;delimiter //CREATE PROCEDURE test()BEGINdeclare a_sql MEDIUMTEXT DEFAULT NULL;select GROUP_CONCAT(DISTINCT    CONCAT(        'MAX(IF(s_time = ''',s_time,''',cell_id,0)) as ''',        s_time,''''        )    ) INTO a_sqlfrom hot_ci;select a_sql;end //delimiter ;call test();

起初写完sql之后使用少量数据进行测试验证,发现sql没问题,当把一周的数据全部导入之后,由于需要转换的数据过多而保错,在存储过程的执行过程中报一下错误:

Row 17 was cut by GROUP_CONCAT()

一通百度之后,不是通过存储过程调用的话,查看相关sql发现a_sql生成的数据不完全,大部分数据缺失,刚开始一直在纠结是否a_sql的变量类型导致的,一直在试图修改变量类型并重新复制,直至看到这篇之后,临时设置GROUP_CONCAT函数的最大长度限制,由于系统默认长度为1024,超出部分将会被截掉导致无法将全部数据存储至变量导致。

SELECT @@global.group_concat_max_len;
Mysql执行保错:Row 17 was cut by GROUP_CONCAT()

解决办法:

1、修改配置文件:/etc/my.cnf
group_concat_max_len = 102400 #你要的最大长度
2、执行临时修改
SET GLOBAL group_concat_max_len=102400;
set @@global.group_concat_max_len = 10240;

//会话级

SET SESSION group_concat_max_len = 102400;

此时在执行相关存储过程call test()不会保错了,问题得到解决

注:附:group_concat完整的语法如下:group_concat([DISTINCT] 要连接的字段 [Order BY ASC/DESC 排序字段] [Separator '分隔符'])

转载于:https://blog.51cto.com/maoxiaoxiong/2332951

你可能感兴趣的文章
Docker数据管理及网络通信
查看>>
oracle 中的INTERVAL 函数详解
查看>>
SAP中成本分配的相关操作KSV1/KSV2/KSV3/KSV5
查看>>
varnish
查看>>
MySQL基本查询语句
查看>>
linux学习-centos7上部署DNS服务
查看>>
在Silverlight中动态绑定页面报表(PageReport)的数据源
查看>>
决心书
查看>>
我的友情链接
查看>>
asci和ascii中文编码问题
查看>>
linux笔记 2-11 系统恢复
查看>>
windows下kafka+ELK的日志系统
查看>>
未来时代
查看>>
正则表达式总结
查看>>
ImageView的属性android:scaleType,即ImageView.setSca...
查看>>
javascript中的错误处理机制
查看>>
java 计算指数函数log2(X)的值
查看>>
Greenplum -- 最全分区表操作
查看>>
Linux交互命令工具expect与自动切换登录用户
查看>>
热烈祝贺广州固润光电参加2017深圳光博会取得圆满成功
查看>>