显然,为了让 Excel 能够很好地打开 CSV 文件,它应该在开头有字节顺序标记。 CSV的下载是通过写入来实现的HttpServletResponse
控制器中的输出流,因为数据是在请求期间生成的。当我尝试写入 BOM 字节时出现异常 -java.io.CharConversionException: Not an ISO 8859-1 character: []
(即使我指定的编码是UTF-8
).
有问题的控制器的方法
@RequestMapping("/monthly/list")
public List<MonthlyDetailsItem> queryDetailsItems(
MonthlyDetailsItemQuery query,
@RequestParam(value = "format", required = false) String format,
@RequestParam(value = "attachment", required = false, defaultValue="false") Boolean attachment,
HttpServletResponse response) throws Exception
{
// load item list
List<MonthlyDetailsItem> list = detailsSvc.queryMonthlyDetailsForList(query);
// adjust format
format = format != null ? format.toLowerCase() : "json";
if (!Arrays.asList("json", "csv").contains(format)) format = "json";
// modify common response headers
response.setCharacterEncoding("UTF-8");
if (attachment)
response.setHeader("Content-Disposition", "attachment;filename=duomenys." + format);
// build csv
if ("csv".equals(format)) {
response.setContentType("text/csv; charset=UTF-8");
response.getOutputStream().print("\ufeff");
response.getOutputStream().write(buildMonthlyDetailsItemCsv(list).getBytes("UTF-8"));
return null;
}
return list;
}
我刚刚遇到,同样的问题。对我有用的解决方案是从响应对象获取输出流并写入它,如下所示
// first create an array for the Byte Order Mark
final byte[] bom = new byte[] { (byte) 239, (byte) 187, (byte) 191 };
try (OutputStream os = response.getOutputStream()) {
os.write(bom);
final PrintWriter w = new PrintWriter(new OutputStreamWriter(os, "UTF-8"));
w.print(data);
w.flush();
w.close();
} catch (IOException e) {
// logit
}
所以在OutputStreamWriter上指定UTF-8。
作为对此的补充,我应该补充一点,相同的应用程序需要允许用户上传文件,这些文件可能有也可能没有 BOM。这可以通过使用类来处理org.apache.commons.io.input.BOMInputStream
,然后用它来构造一个org.apache.commons.csv.CSVParser
。
BOMInputStream 包含一个方法hasBOM()
检测文件是否有 BOM。
我首先遇到的一个问题是hasBOM()
方法从底层流中读取(显然!),因此处理此问题的方法是首先标记流,然后在测试后如果没有 BOM,则重置流。我为此使用的代码如下所示:
try (InputStream is = uploadFile.getInputStream();
BufferedInputStream buffIs = new BufferedInputStream(is);
BOMInputStream bomIn = new BOMInputStream(buffIs);) {
buffIs.mark(LOOKAHEAD_LENGTH);
// this should allow us to deal with csv's with or without BOMs
final boolean hasBOM = bomIn.hasBOM();
final BufferedReader buffReadr = new BufferedReader(
new InputStreamReader(hasBOM ? bomIn : buffIs, StandardCharsets.UTF_8));
// if this stream does not have a BOM, then we must reset the stream as the test
// for a BOM will have consumed some bytes
if (!hasBOM) {
buffIs.reset();
}
// collect the validated entity details
final CSVParser parser = CSVParser.parse(buffReadr,
CSVFormat.DEFAULT.withFirstRecordAsHeader());
// Do stuff with the parser
...
// Catch and clean up
希望这对某人有帮助。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)